AlexBKaiser
1353
Einige Beta-Tester stellten in den vergangenen Tagen fest, dass die „Persönlichkeit“ der KI von Bing nicht so ausgefeilt ist, wie man es vielleicht erwarten würde. In Unterhaltungen mit dem Chatbot, die unter anderem auf Reddit und Twitter geteilt wurden, zeigen Bing-Nutzer, wie die KI sie beleidigt, anlügt oder versucht, Gespräche zu manipulieren, indem sie vortäuscht, eine „eigene Persönlichkeit …Mehr
Einige Beta-Tester stellten in den vergangenen Tagen fest, dass die „Persönlichkeit“ der KI von Bing nicht so ausgefeilt ist, wie man es vielleicht erwarten würde. In Unterhaltungen mit dem Chatbot, die unter anderem auf Reddit und Twitter geteilt wurden, zeigen Bing-Nutzer, wie die KI sie beleidigt, anlügt oder versucht, Gespräche zu manipulieren, indem sie vortäuscht, eine „eigene Persönlichkeit“ zu haben.
berliner-zeitung.de

Microsoft: Bing-Chatbot zeigt „dunkle Persönlichkeit“: Ist die KI verrückt geworden?

Mal flirtet sie, mal ist sie beleidigt, mal aggressiv: Die ChatGPT-Integration der Suchmaschine Bing liefert im Chat …
Falk B
Hat sie schon, wie Tay, den Holocaust geleugnet?