Obwohl eine Definition von Fairness als Wort vereinbart werden kann, kann ihre konkrete Anwendung konkret weiter analysiert werden.
Ebenso wie die Definition, was fair ist oder nicht, ein echtes Dilemma für die Menschen sein kann, ist es auch eine Herausforderung für die künstliche Intelligenz und eine Herausforderung, die eine neue Initiative an der Michigan State University zu erleichtern versucht.
Fairnessklassen für KI-Algorithmen
In Anbetracht der Tatsache, dass Systeme der künstlichen Intelligenz in alltäglichen Aktivitäten und Diensten zunehmend vorhanden sind, ist es notwendig, den beteiligten Plattformen eine ausreichende Unparteilichkeit zu verleihen, um zu entscheiden, wer die richtige medizinische Versorgung erhält, wer für einen Bankkredit in Frage kommt oder wer zugewiesen wird ein Beruf.
Mit Mitteln von Amazon und der National Science Foundation hat Pang-Ning Tan, ein Forscher und Professor am Institut für Informatik und Ingenieurwesen der oben genannten US-Universität, im letzten Jahr Algorithmen für künstliche Intelligenz trainiert, um zwischen Fairness und Fairness zu unterscheiden Ungerechtigkeit ihrer Handlungen.
„Wir versuchen, KI-Systeme zu entwickeln, die nicht nur für die Informatik bestimmt sind, sondern auch Wert und Nutzen für die Gesellschaft bringen. Deshalb habe ich mir Gedanken darüber gemacht, welche Bereiche derzeit für die Gesellschaft eine Herausforderung darstellen “, sagte der Forscher über die Gründe für seine Initiative.
Dieses Projekt macht es erforderlich, Initiativen zu entwickeln, die sich direkt auf die Nutzer auswirken. In diesem Zusammenhang erklärte Tan auch: „Gerechtigkeit ist ein sehr großes Problem, zumal wir uns bei alltäglichen Bedürfnissen wie der medizinischen Versorgung immer mehr auf KI verlassen, aber auch auf Dinge, die banal erscheinen, wie das Filtern von Spam oder das Einfügen von Geschichten in Ihren Nachrichtenbereich . ”
Selbst als automatisierte Systeme können KI-Algorithmen bestimmte ererbte Verzerrungen aus den in ihrem Training verwendeten Daten tragen oder sogar direkt von ihren Erstellern weitergegeben werden. Laut einer Umfrage des Tan-Forschungsteams gibt es beispielsweise Fälle von KI-Systemen, die bei der Verwaltung der medizinischen Versorgung und der sexuellen Trennung von Frauen in Bewerbungssystemen rassistisch diskriminieren.
Zu dieser Realität erklärte Abdol-Hossein Esfahanian, ein Mitglied des Tan-Forschungsteams: „Algorithmen werden von Menschen erstellt und Menschen haben normalerweise Vorurteile, daher werden diese Vorurteile gefiltert. Wir wollen überall Fairness und wir wollen eine bessere Verständnis, wie man es bewertet.
Mit der Unterstützung sozialwissenschaftlicher Theorien versuchen Tan und sein Team, den universellsten Begriff von Fairness zu erreichen. Um dieses Ziel zu erreichen, werden die dem Algorithmus übermittelten Fairnessprinzipien nicht aus einer einzigen Sicht stammen und ihn dazu herausfordern, sich zwischen konkurrierenden oder widersprüchlichen Positionen zu entscheiden.
„Wir versuchen, die KI für Gerechtigkeit zu sensibilisieren, und um das zu tun, muss man sagen, was fair ist. Aber wie gestaltet man ein Maß an Fairness, das für alle akzeptabel ist? “ Tan fügte hinzu: “Wir untersuchen, wie sich eine Entscheidung nicht nur auf Einzelpersonen, sondern auch auf deren Gemeinschaften und soziale Kreise auswirkt.”
Die Arbeit ist ehrgeizig und fängt trotz der Fortschritte gerade erst an. „Dies ist eine sehr fortlaufende Forschung. Es gibt viele Probleme und Herausforderungen – wie definieren Sie Fairness, wie können Sie Menschen helfen, diesen Systemen zu vertrauen, die wir jeden Tag verwenden “, überlegte Tan und fügte hinzu, dass„ unsere Aufgabe als Forscher darin besteht, Lösungen für diese Probleme zu finden. “
Der vollständige Bericht dieser Forschung kann auf der Website abgerufen werden Website der Michigan State University.