Google warnt vor dem ungeprüften Einsatz von KI-Chatbots und zielt damit wohl auf den KI-Chatbot „Chat GPT“. Die Warnung beinhaltet die Vorstellung, dass die Antworten solcher maschinellen Intelligenz überzeugend sein könnten, aber „frei erfunden“.
„Frei erfundene Antworten“ von Chat GPT und Co.? Google warnt
„Nachdem Microsoft mit der Integration der künstlichen Intelligenz (KI) „Chat GPT“ in die Suchmaschine „Bing“ den Druck auf den Konkurrenten Google erhöht hat, warnt dieser vor dem unbedachten Einsatz von KI in Chatbots. „Diese Art von künstlicher Intelligenz, über die wir gerade sprechen, kann manchmal zu etwas führen, das wir Halluzination nennen“, sagte Googles Suchmaschinen-Chef Prabhakar Raghavan der „Welt am Sonntag“.
„Das drückt sich dann so aus, dass eine Maschine eine überzeugende, aber komplett frei erfundene Antwort liefert.“ Eine der grundlegenden Aufgaben sei es, dies auf ein Minimum zu beschränken. Google hat in dieser Woche einen eigenen Chatbot mit dem Namen „Bard“ vorgestellt und damit auf das Vorpreschen des Start-ups „Open AI“ reagiert, das bereits vor Wochen seine eigene Lösung mit der Bezeichnung „Chat GPT“ veröffentlicht hatte. Das Google-Pendant „Bard“ lässt Google derzeit von einigen Nutzern testen.
Ein Werbevideo für „Bard“ war auf Kritik gestoßen, nachdem darin die Google-KI eine falsche Information dargestellt hatte. Raghavan zufolge überlegt Google, wie „Bard“ in die Suchfunktionen eingebunden werden kann, „insbesondere auch für die Fragen, auf die es eben nicht nur eine einzige Antwort gibt“. Wann Google seinen Chatbot öffentlich macht, hat der Konzern noch nicht verraten. „Wir spüren natürlich die Dringlichkeit, aber wir spüren auch die große Verantwortung“, sagte Raghavan. „Wir wollen die Öffentlichkeit auf keinen Fall in die Irre führen“, sagte er.
„Die riesigen Sprachmodelle, die hinter dieser Technologie stecken, machen es unmöglich, jedes denkbare Verhalten des Systems durch Menschen zu überwachen. Aber wir wollen es in so großem Stil testen, dass wir am Ende zufrieden sind mit den von uns verwendeten Messgrößen, die wir nutzen, um die Sachlichkeit der Antworten zu überprüfen.“ Menschen sollten grundsätzlich wachsam sein, wenn sie mit den Ergebnissen konfrontiert werden, die ihnen von einem Chatbot präsentiert werden, hinter dem eine künstliche Intelligenz steht, sagte der Google-Manager.
Es sei wichtig, dass Nutzer die Instrumente bekämen, um Ergebnisse überprüfen zu können. Dazu zähle auch, die Quellen offenzulegen. „Wir legen an uns selbst einen sehr hohen Maßstab an“, sagte Raghavan. „Und es ist auch mein Ziel, bei den Chatbots führend zu sein in Bezug auf die Integrität der Informationen, aber auch die Verantwortung, die wir übernehmen. Nur so werden wir das Vertrauen der Öffentlichkeit behalten können.“
Bericht mit Material der dts Nachrichtenagentur
Foto: Google-Zentrale in Kalifornien, über dts Nachrichtenagentur