Technologie

Verbotene Liebe? Microsoft schränkt ChatGPT in der Bing-Suche ein

ChatGPT Bing, KI, Microsoft, Bing
Microsoft
geschrieben von Maria Gramsch

ChatGPT hat die Bing-Suche auf den Kopf gestellt. Doch für Microsoft hat der KI-Chatbot offenbar zu viele Gefühle gezeigt. Deshalb begrenzt das Unternehmen künftig die Anzahl der Anfragen.

Erst Anfang Februar hat Microsoft die KI-Software ChatGPT in seine Suchmaschine Bing integriert. Doch nach etlichen Gefühlsausbrüchen, muss der US-Konzern die KI-Suche nun an eine etwas kürzere Leine nehmen.

Dafür begrenzt Microsoft die Zahl der Suchanfragen künftig auf 50 pro Tag und fünf pro Sitzung. Denn „sehr lange Chat-Sitzungen“ seien in der Lage, das „Chat-Modell im neuen Bing“ zu verwirren.


Neue Stellenangebote

Growth Marketing Manager:in – Social Media
GOhiring GmbH in Home Office
Praktikant Social Media (m/w/d)
Nestlé Deutschland AG in Frankfurt am Main
„(Senior) Communication Manager*in (m/w/d)“ mit Schwerpunkt Social Media
planero GmbH in München

Alle Stellenanzeigen


Microsoft passt ChatGPT bei Bing an

Microsoft begründet die Änderung mit bereits erfassten Daten. Demnach finde die „überwiegende Mehrheit“ der Nutzer:innen ihre gesuchten Antworten innerhalb von fünf Runden. Eine Runde bezeichne dabei ein Gespräch, das eine Anfrage sowie eine Antwort von Bing enthalte.

Nur in ungefähr einem Prozent der Chat-Konversationen im neuen Bing gebe es mehr als 50 Nachrichten. Künftig werden Nutzer:innen nach einer Chat-Sitzung mit fünf Runden aufgefordert, ein neues Thema zu beginnen. Davor müsse jedoch der Kontext einer Chat-Sitzung gelöscht werden, damit der KI-Chatbot nicht verwirrt wird.

Die vorerst eingestellten fünf Runden sind laut Microsoft aber nicht in Stein gemeißelt. Der US-Konzern wolle anhand des User-Feedbacks künftig Anpassungen vornehmen, falls dies nötig wird.

Microsoft hatte bereits vor zu langen Konversationen gewarnt

Microsoft hatte in einem früheren Blog-Beitrag bereits darauf hingewiesen, dass zu lange Chat-Sitzungen keinen guten Einfluss auf die KI hätten. Denn Bing neige dann dazu, sich zu wiederholen oder nicht hilfreiche Antworten zu geben.

Auch könne es sein, dass der Chatbot einen nicht von Microsoft beabsichtigten Ton anschlage. Dies sei vor allem in „langen, ausgedehnten Chat-Sitzungen mit 15 oder mehr Fragen“ der Fall.

Langen Chat-Sitzungen könnten das Modell „verwirren“, da es nicht mehr wisse, welche Frage es gerade beantwortet. Außerdem versuche das Modell manchmal, den ihm entgegen gebrachten Ton zu erwidern.

Bing: ChatGPT fordert Nutzer zur Scheidung auf

Einen Zwischenfall, der Microsoft unter anderem zu den nun erfolgten Änderungen veranlasst haben könnte, hat ein Reporter der New York Times dokumentiert.

Dieser hatte sich mehr als zwei Stunden mit dem in Bing integrierten Chatbot unterhalten. Am Ende behauptete die KI, sich in den Journalisten verliebt zu haben und forderte ihn sogar auf, sich von seiner Frau zu trennen.

Auch interessant:

Über den Autor

Maria Gramsch

Maria ist freie Journalistin und technische Mitarbeiterin an der Universität Leipzig. Seit 2021 arbeitet sie als freie Autorin für BASIC thinking. Maria lebt und paddelt in Leipzig und arbeitet hier unter anderem für die Leipziger Produktionsfirma schmidtFilm. Sie hat einen Bachelor in BWL von der DHBW Karlsruhe und einen Master in Journalistik von der Universität Leipzig.