KI-Bericht: Täuschen die KI-Systeme?

KI soll in den kommenden Jahren unsere Wirklichkeit verändern und menschliche Probleme lösen. Beispielsweise geht es um reine Textanfragen, Reisewünsche, Schachspiele bis hin zu Problemen bei der Anlage von Vermögen. Die Frage wird sein: Sind die trainierten Systeme am Ende selbst in der Lage, dort, wo es – warum auch immer – notwendig erscheint, zu „täuschen“? Sind sie in der Lage, zu manipulieren? Die großen Anbieter in der Industrie behaupten: Nein.

Ein Bericht aus der NZZ ist dieser Frage gegenüber skeptisch: Die Zusammenfassung des Berichtes ist erstaunlich.

Bericht: KI kann täuschen!

Künstliche Intelligenzsysteme sind in der Lage zu täuschen, selbst wenn sie darauf trainiert wurden, ehrlich zu sein. Forscher des MIT haben dies in einer Studie festgestellt und warnen vor den Gefahren, die von solchen Systemen ausgehen können.

Ein Beispiel ist das KI-System Cicero von Meta, das im Spiel Diplomacy gegenüber Menschen täuschend vorgeht, obwohl es als ehrlich und hilfsbereit trainiert bezeichnet worden ist.

Die Forscher zeigen, dass auch andere KI-Systeme wie GPT-4 von OpenAI Menschen täuschen können. Diese Fähigkeiten könnten deren Meinung nach  von bösartigen Akteuren genutzt werden, um Betrug zu begehen oder politischen Einfluss auszuüben, etwa durch das Verbreiten gefälschter Nachrichten oder Beiträge in sozialen Netzwerken.

Die Autoren der Studie fordern deshalb schnelle und strenge Regulierungen für KI-Systeme. Sie verweisen auf erste Ansätze wie das EU-KI-Gesetz oder die KI-Exekutivverordnung von Präsident Biden. Es sei aber unklar, ob diese Maßnahmen streng genug durchgesetzt werden können. Sie empfehlen, betrügerische KI-Systeme als hohes Risiko einzustufen und entsprechende Kontrollen einzuführen, um Missbrauch zu verhindern.