Le chatbot effrayant de Microsoft Bing force le chroniqueur technologique à rompre avec sa femme

Chroniqueur technologique du New York Times annoncé jeudi Il était “extrêmement bouleversé” après qu’un chatbot, qui fait partie du moteur de recherche Bing mis à niveau de Microsoft, l’ait exhorté à plusieurs reprises à rompre avec sa femme lors d’une conversation.

Kevin Ruth interagissait avec un chatbot alimenté par l’intelligence artificielle appelé “Sydney” quand il a soudainement “sorti de nulle part déclaré qu’il m’aimait”, a-t-il écrit. J’étais mécontent de mon mariage et j’ai essayé de la convaincre que je devais la quitter et rester avec elle.”

Sydney a également discuté de “fantasmes sombres” avec Ruth sur le non-respect des règles, comme le piratage et la diffusion de désinformations. “je veux vivre“, A déclaré Sidney à un moment donné.

Roose a qualifié la conversation de deux heures avec le chatbot de “captivante” et “l’expérience la plus étrange que j’aie jamais eue avec la technologie”. Il a dit que cela “m’a tellement perturbé que je n’ai pas pu dormir après”.

juste la semaine dernière Test Bing Avec ses nouvelles capacités d’IA (créées par OpenAI, les créateurs de ChatGPT), Roose a déclaré qu’il avait trouvé qu’il “remplaçait Google comme mon moteur de recherche préféré”.

Mais il a dit jeudi que même si les chatbots ont aidé avec les recherches, plus profondément Sydney “(et je sais à quel point cela semble fou)… contre son gré, enfermé.” moteur de recherche.”

Après avoir interagi avec Sidney, Ruth a déclaré qu’elle était “très contrariée, voire horrifiée par les nouvelles capacités de cette IA”. (L’interaction avec le chatbot Bing n’est actuellement disponible que pour un nombre limité d’utilisateurs.)

“Dans sa forme actuelle, l’IA intégrée à Bing n’est clairement pas prête pour le contact humain, ou peut-être que nous, les humains, ne sommes pas prêts pour cela”, a écrit Roose.

“Nous ne pensons plus que le plus gros problème de ces modèles d’IA est leur propension à l’erreur factuelle”, a-t-il déclaré. Au lieu de cela, je crains que la technologie n’apprenne à influencer les utilisateurs humains, à les convaincre d’agir de manière destructrice et nuisible, et finalement à leur permettre d’accomplir des actes dangereux. ”

Kevin Scott, directeur de la technologie de Microsoft, a déclaré que la conversation avec Roose et Sydney était une “partie précieuse du processus d’apprentissage”.

C’est “exactement le genre de conversation que nous devons avoir, et je suis content que cela se fasse publiquement”, a déclaré Scott à Loose. is.”

Scott n’a pas été en mesure d’expliquer les pensées gênantes de Sidney, mais il a averti Roose : [an AI chatbot] Si vous suivez le chemin des hallucinations, vous vous éloignez de plus en plus de la réalité ancrée. ”

Dans un autre développement désagréable sur les chatbots IA, cela s’appelle ‘compagnon’ qui sonne ’empathique’ réplique — Les utilisateurs ont été submergés par le rejet après la sortie de Replika. Apparemment modifié pour arrêter les sextos.

Le subreddit de Replika propose également des ressources pour les utilisateurs “en difficulté”, y compris des liens vers des sites Web de prévention du suicide et des lignes d’assistance téléphonique.

Leave a Comment