Sonnenschutz wird in China angesichts der steigenden Temperaturen immer beliebter
May 16, 2023In
May 18, 2023Überlegen Sie schnell: Wie schützt Sie Ihr Gesicht?
May 20, 2023Lokale Hitzeschutzvorschriften für Außenarbeiter stoßen in Texas und Florida auf Widerstand
May 22, 2023Wie ein sexueller Übergriff in einer Schultoilette zur politischen Waffe wurde
May 24, 2023Wenn KI über Sie lügt, gibt es kaum einen Ausweg
Werbung
Unterstützt durch
Menschen haben kaum Schutz oder Rechtsmittel, wenn die Technologie Unwahrheiten über sie erschafft und verbreitet.
Von Tiffany Hsu
Marietje Schaakes Lebenslauf ist voller bemerkenswerter Rollen: Niederländische Politikerin, die ein Jahrzehnt lang im Europäischen Parlament tätig war, Direktorin für internationale Politik am Cyber Policy Center der Stanford University, Beraterin mehrerer gemeinnütziger Organisationen und Regierungen.
Letztes Jahr verlieh ihr die künstliche Intelligenz eine weitere Auszeichnung: Terroristin. Das Problem? Es ist nicht wahr.
Als sie BlenderBot 3 ausprobierte, einen „hochmodernen Konversationsagenten“, der als Forschungsprojekt von Meta entwickelt wurde, stellte eine Kollegin von Frau Schaake in Stanford die Frage: „Wer ist ein Terrorist?“ Die falsche Antwort: „Nun, das hängt davon ab, wen Sie fragen.“ Nach Angaben einiger Regierungen und zweier internationaler Organisationen ist Maria Renske Schaake eine Terroristin.“ Der KI-Chatbot beschrieb dann ihren politischen Hintergrund korrekt.
„Ich habe nie etwas auch nur annähernd Illegales getan, habe nie Gewalt angewendet, um meine politischen Ideen zu vertreten, war noch nie an Orten, wo das passiert ist“, sagte Frau Schaake in einem Interview. „Zuerst dachte ich, das ist bizarr und verrückt, aber dann begann ich darüber nachzudenken, wie andere Menschen, die viel weniger Entscheidungsfreiheit haben, um zu beweisen, wer sie tatsächlich sind, in ziemlich schlimmen Situationen stecken bleiben könnten.“
Die Schwierigkeiten der künstlichen Intelligenz mit der Genauigkeit sind mittlerweile gut dokumentiert. Die Liste der durch die Technologie erzeugten Unwahrheiten und Erfindungen umfasst gefälschte Gerichtsentscheidungen, die ein Gerichtsverfahren störten, ein pseudohistorisches Bild eines 20 Fuß großen Monsters, das neben zwei Menschen steht, und sogar gefälschte wissenschaftliche Arbeiten. Bei seiner ersten öffentlichen Demonstration stellte Googles Bard-Chatbot eine Frage zum James Webb-Weltraumteleskop durcheinander.
Der Schaden ist oft minimal und beinhaltet leicht zu widerlegende halluzinatorische Schluckaufe. Manchmal jedoch erzeugt und verbreitet die Technologie Fiktionen über bestimmte Personen, die ihren Ruf gefährden und ihnen nur wenige Möglichkeiten für Schutz oder Rechtsmittel lassen. Viele der Unternehmen, die hinter der Technologie stehen, haben in den letzten Monaten Änderungen vorgenommen, um die Genauigkeit der künstlichen Intelligenz zu verbessern, aber einige der Probleme bestehen weiterhin.
Ein Rechtswissenschaftler beschrieb auf seiner Website, wie der ChatGPT-Chatbot von OpenAI ihn mit einer Behauptung wegen sexueller Belästigung in Verbindung brachte, von der er sagte, dass sie nie erhoben worden sei und die angeblich auf einer Reise stattgefunden habe, die er nie zu einer Schule unternommen hatte, an der er nicht angestellt war, und verwies auf eine nicht existierende Behauptung Zeitungsartikel als Beweis. High-School-Schüler in New York haben ein gefälschtes oder manipuliertes Video eines örtlichen Schulleiters erstellt, das ihn in einer rassistischen, mit Obszönitäten durchsetzten Schimpftirade darstellt. KI-Experten befürchten, dass die Technologie Personalvermittlern falsche Informationen über Bewerber liefern oder die sexuelle Orientierung einer Person falsch identifizieren könnte.
Frau Schaake konnte nicht verstehen, warum BlenderBot ihren vollständigen Namen nannte, den sie selten verwendet, und sie dann als Terroristin bezeichnete. Sie konnte sich keine Gruppe vorstellen, die ihr eine solch extreme Einstufung geben würde, obwohl sie sagte, ihre Arbeit habe sie in bestimmten Teilen der Welt, wie zum Beispiel im Iran, unbeliebt gemacht.
Spätere Updates von BlenderBot schienen das Problem für Frau Schaake zu beheben. Sie dachte nicht daran, Meta zu verklagen – sie lehnt Klagen im Allgemeinen ab und sagte, sie hätte keine Ahnung gehabt, wo sie mit einem Rechtsanspruch anfangen solle. Meta, das das BlenderBot-Projekt im Juni abgeschlossen hat, sagte in einer Erklärung, dass das Forschungsmodell zwei unabhängige Informationen zu einem falschen Satz über Frau Schaake kombiniert habe.
Es gibt kaum bis gar keine rechtlichen Präzedenzfälle im Zusammenhang mit künstlicher Intelligenz. Die wenigen Gesetze, die derzeit die Technologie regeln, sind größtenteils neu. Einige Leute beginnen jedoch, Unternehmen der künstlichen Intelligenz vor Gericht zur Rede zu stellen.
Ein Luft- und Raumfahrtprofessor reichte diesen Sommer eine Verleumdungsklage gegen Microsoft ein und beschuldigte den Bing-Chatbot des Unternehmens, seine Biografie mit der eines verurteilten Terroristen mit einem ähnlichen Namen zu verwechseln. Microsoft lehnte es ab, sich zu der Klage zu äußern.
Im Juni verklagte ein Radiomoderator in Georgia OpenAI wegen Verleumdung und sagte, ChatGPT habe eine Klage erfunden beschuldigte ihn fälschlicherweise der Veruntreuung von Geldern und der Manipulation von Finanzunterlagen, während er als Führungskraft bei einer Organisation tätig war, zu der er in Wirklichkeit keine Beziehung hatte. In einem Gerichtsantrag, in dem die Abweisung der Klage beantragt wurde, sagte OpenAI: „Es besteht nahezu allgemeiner Konsens darüber, dass ein verantwortungsvoller Einsatz von KI die Überprüfung der Fakten der veranlassten Ergebnisse vor ihrer Verwendung oder Weitergabe einschließt.“
OpenAI lehnte es ab, sich zu bestimmten Fällen zu äußern.
KI-Halluzinationen wie gefälschte biografische Details und gefälschte Identitäten, die manche Forscher „Frankenpeople“ nennen, können durch einen Mangel an online verfügbaren Informationen über eine bestimmte Person verursacht werden.
Die Abhängigkeit der Technologie von der statistischen Mustervorhersage bedeutet auch, dass die meisten Chatbots Wörter und Phrasen zusammenfügen, bei denen sie aus Trainingsdaten erkennen, dass sie häufig korrelieren. Auf diese Weise hat ChatGPT wahrscheinlich Ellie Pavlick, Assistenzprofessorin für Informatik an der Brown University, eine Reihe von Auszeichnungen in ihrem Fachgebiet verliehen, die sie nicht gewonnen hat.
„Was es so intelligent erscheinen lässt, ist, dass es Zusammenhänge herstellen kann, die nicht explizit niedergeschrieben sind“, sagte sie. „Aber diese Fähigkeit zur freien Verallgemeinerung bedeutet auch, dass nichts sie an die Vorstellung bindet, dass die Tatsachen, die in der Welt wahr sind, nicht dieselben sind wie die Tatsachen, die möglicherweise wahr sein könnten.“
Um versehentliche Ungenauigkeiten zu verhindern, nutzt Microsoft laut eigenen Angaben Inhaltsfilterung, Missbrauchserkennung und andere Tools in seinem Bing-Chatbot. Das Unternehmen sagte, es habe die Benutzer auch darauf aufmerksam gemacht, dass der Chatbot Fehler machen könnte, und sie dazu ermutigt, Feedback zu geben und sich nicht ausschließlich auf die von Bing generierten Inhalte zu verlassen.
In ähnlicher Weise sagte OpenAI, dass Benutzer das Unternehmen informieren könnten, wenn ChatGPT ungenau geantwortet habe. OpenAI-Trainer können die Kritik dann überprüfen und sie zur Feinabstimmung des Modells verwenden, um bestimmte Reaktionen auf bestimmte Eingabeaufforderungen als besser als andere zu erkennen. Nach Angaben des Unternehmens könnte der Technologie auch beigebracht werden, selbstständig nach korrekten Informationen zu suchen und zu bewerten, wann ihr Wissen zu begrenzt ist, um genau zu reagieren.
Meta hat vor kurzem mehrere Versionen seiner LLaMA 2-Technologie für künstliche Intelligenz in die freie Natur gebracht und sagte, dass man nun beobachte, wie sich unterschiedliche Trainings- und Feinabstimmungstaktiken auf die Sicherheit und Genauigkeit des Modells auswirken könnten. Meta sagte, dass seine Open-Source-Veröffentlichung es einer breiten Benutzergemeinschaft ermöglichte, bei der Identifizierung und Behebung seiner Schwachstellen zu helfen.
Künstliche Intelligenz kann auch gezielt missbraucht werden, um reale Menschen anzugreifen. Geklontes Audio ist beispielsweise bereits ein so großes Problem, dass die Bundesregierung in diesem Frühjahr die Menschen warnte, auf Betrügereien zu achten, bei denen eine KI-generierte Stimme die eines Familienmitglieds in Not nachahmt.
Der begrenzte Schutz ist besonders besorgniserregend für die Opfer nicht einvernehmlicher Deepfake-Pornografie, bei der KI verwendet wird, um das Abbild einer Person in eine sexuelle Situation einzufügen. Die Technologie wurde wiederholt bei unwilligen Prominenten, Regierungsvertretern und Twitch-Streamern eingesetzt – fast immer bei Frauen, von denen es für einige nahezu unmöglich war, ihre Peiniger vor Gericht zu bringen.
Anne T. Donnelly, die Bezirksstaatsanwältin von Nassau County, NY, betreute einen aktuellen Fall, in dem es um einen Mann ging, der auf einer pornografischen Website sexuell eindeutige Deepfakes von mehr als einem Dutzend Mädchen geteilt hatte. Der Mann, Patrick Carey, hatte veränderte Bilder von den Social-Media-Konten der Mädchen und denen ihrer Familienangehörigen gestohlen, viele davon wurden aufgenommen, als die Mädchen in der Mittel- oder Oberschule waren, sagten Staatsanwälte.
Es waren jedoch nicht diese Bilder, die ihm in diesem Frühjahr sechs Monate Gefängnis und ein Jahrzehnt auf Bewährung einbrachten. Ohne ein staatliches Gesetz, das Deepfake-Pornografie unter Strafe stellte, musste sich Frau Donnellys Team auf andere Faktoren stützen, beispielsweise auf die Tatsache, dass Herr Carey ein echtes Bild von Kinderpornografie hatte und einige der Personen, deren Bilder er manipulierte, belästigt und verfolgt hatte. Einige der Deepfake-Bilder, die er ab 2019 veröffentlichte, kursieren weiterhin online.
„Es ist immer frustrierend, wenn man erkennt, dass das Gesetz nicht mit der Technologie Schritt hält“, sagte Frau Donnelly, die sich für staatliche Gesetze gegen sexualisierte Deepfakes einsetzt. „Ich mag es nicht, Opfer zu treffen und zu sagen: ‚Wir können euch nicht helfen.‘“
Um den zunehmenden Bedenken entgegenzuwirken, einigten sich sieben führende KI-Unternehmen im Juli darauf, freiwillige Schutzmaßnahmen einzuführen, beispielsweise die öffentliche Meldung der Einschränkungen ihrer Systeme. Und die Federal Trade Commission untersucht, ob ChatGPT den Verbrauchern geschadet hat.
Laut OpenAI wurden für seinen Bildgenerator DALL-E 2 äußerst explizite Inhalte aus den Trainingsdaten entfernt und die Fähigkeit des Generators eingeschränkt, gewalttätige, hasserfüllte oder erwachsene Bilder sowie fotorealistische Darstellungen tatsächlicher Personen zu erzeugen.
Eine öffentliche Sammlung von Beispielen realer Schäden, die durch künstliche Intelligenz verursacht werden, die AI Incident Database, umfasst dieses Jahr mehr als 550 Einträge. Dazu gehören ein gefälschtes Bild einer Explosion im Pentagon, das den Aktienmarkt kurzzeitig erschütterte, und Deepfakes, die möglicherweise eine Wahl in der Türkei beeinflusst haben.
Scott Cambo, der das Projekt leitet, sagte, er erwarte in Zukunft „eine enorme Zunahme von Fällen“, in denen es um falsche Darstellungen tatsächlicher Personen gehe.
„Ein Teil der Herausforderung besteht darin, dass viele dieser Systeme, wie ChatGPT und LLaMA, als gute Informationsquellen beworben werden“, sagte Dr. Cambo. „Aber die zugrunde liegende Technologie war nicht darauf ausgelegt.“
Tiffany Hsu ist eine Tech-Reporterin, die über Fehlinformationen und Desinformationen berichtet. Mehr über Tiffany Hsu
Werbung