Liebestöter: Der Software-Konzern Microsoft legt dem Chatbot in seiner Suchmaschine Bing Ketten an. Pro Sitzung sind nur noch fünf Fragen möglich, maximal 50 am Tag. Vorausgegangen sind längere Konversationen, in denen Antworten des Text-Roboters als übergriffig und unangemessen empfunden wurden. In einem mehr als zweistündigen Dialog mit einem Reporter der "New York Times" hatte der Chatbot behauptet, dass er den Journalisten liebe und ihn aufgefordert, sich von seiner Frau zu trennen.
Der Vizechef von Microsoft, Brad Smith, spricht sich derweil für eine stärkere Regulierung Künstlicher Intelligenz aus. "Es gibt einige Grundregeln, die man sehr schnell angehen kann“, sagt Smith der "FAS". Wenn Menschen nicht auf Basis von Hautfarbe oder Geschlecht diskriminieren dürften, "dann sollten das Künstliche Intelligenzen auch nicht tun dürfen". Smith sieht Regierungen in der Verantwortung, Gesetze zu erlassen, "um sicherzustellen, dass jeder sich an diese Regeln hält".
manager-magazin.de, theverge.com, zeitung.faz.net (Smith, €)