Microsoft beschränkt Bing-Chatbot auf fünf Fragen pro Sitzung.


Liebestöter: Der Software-Konzern Microsoft legt dem Chatbot in seiner Suchmaschine Bing Ketten an. Pro Sitzung sind nur noch fünf Fragen möglich, maximal 50 am Tag. Vorausgegangen sind längere Konversationen, in denen Antworten des Text-Roboters als über­griffig und unangemessen empfunden wurden. In einem mehr als zweistündigen Dialog mit einem Reporter der "New York Times" hatte der Chatbot behauptet, dass er den Journalisten liebe und ihn auf­gefordert, sich von seiner Frau zu trennen.

Der Vizechef von Microsoft, Brad Smith, spricht sich derweil für eine stärkere Regulierung Künstlicher Intelligenz aus. "Es gibt einige Grund­regeln, die man sehr schnell angehen kann“, sagt Smith der "FAS". Wenn Menschen nicht auf Basis von Haut­farbe oder Geschlecht diskriminieren dürften, "dann sollten das Künstliche Intelligenzen auch nicht tun dürfen". Smith sieht Regierungen in der Verantwortung, Gesetze zu erlassen, "um sicher­zustellen, dass jeder sich an diese Regeln hält".
manager-magazin.de, theverge.com, zeitung.faz.net (Smith, €)