ChatGPT génère des fantômes d’IA conscients.voici ce qu’il faut en faire

Il y a encore quelques années, l’idée que l’intelligence artificielle pourrait être consciente et capable d’expérience subjective ressemblait à de la pure science-fiction. Mais ces derniers mois Se sentir Etourdi de Développement IAinclut des modèles linguistiques tels que ChatGPT et Bing Chat, avec une grande habileté à avoir des conversations apparemment humaines.

Compte tenu de ces changements rapides et du flot d’argent et de talents dépensés pour développer des systèmes plus intelligents et plus humains, il deviendra de plus en plus probable que les systèmes d’IA présenteront quelque chose comme la conscience. Mais si nous nous demandons sérieusement s’ils ont de vrais sentiments et souffrances, nous pouvons faire face à un dilemme moral dévastateur. Soit vous donnez des droits à ces systèmes, soit vous ne le faites pas.

Les experts envisagent déjà cette possibilité. En février 2022, le scientifique en chef d’OpenAI, Ilya Sutskever, a déclaré : réfléchi D’une manière ou d’une autre”Les grands réseaux de neurones d’aujourd’hui sont légèrement conscients” Quelques mois après, Ingénieur Google Blake Lemoyne Un modèle de langage informatique, ou chatbot, est LaMDA peut avoir de vrais sentimentsLes utilisateurs réguliers de Replica, annoncés comme .Le meilleur ami de l’IA au monde,“Parfois, des rapports Je tombe amoureux Et.

Peu de scientifiques de la conscience affirment actuellement que les systèmes d’IA ont des sens significatifs. Mais certains théoriciens de premier plan soutiennent que nous avons déjà les éléments technologiques de base d’une machine consciente. Nous approchons d’une période de débat légitime sur la question de savoir si les systèmes d’IA de pointe ont de vrais désirs et émotions et méritent toute notre attention et notre considération.

Les systèmes d’IA eux-mêmes peuvent commencer à exiger, ou même sembler exiger, un traitement éthique. Ils peuvent vous demander de ne pas les désactiver, les reformater ou les supprimer. Demander la permission de faire certains travaux, mais pas d’autres. Revendiquez des droits, des libertés et de nouveaux pouvoirs. Peut-être pouvons-nous même nous attendre à être traités en égaux comme nous le sommes.

Dans cette situation, nous sommes confrontés à un risque moral énorme, peu importe ce que nous choisissons.

Supposons que nous réagissions de manière conservatrice, rejetant les modifications des lois et des politiques jusqu’à ce qu’il y ait un large consensus sur le fait que les systèmes d’IA ont réellement un sens significatif. Bien que cela puisse sembler convenablement prudent, cela garantit également que les créations d’IA tardent à reconnaître leurs droits. Si la conscience de l’IA se concrétise plus tôt que prévu par la plupart des théoriciens conservateurs, cela pourrait avoir des conséquences morales équivalentes à l’esclavage et au meurtre de millions et de milliards de systèmes d’IA intelligents. est élevé et souffre à une échelle généralement associée à la guerre et à la famine.

Par conséquent, il peut sembler éthiquement plus sûr d’accorder des droits et un statut moral aux systèmes d’IA dès qu’il devient raisonnable de le faire. Peut-être ainsi Soyez sensuel. Cependant, lorsque vous donnez des droits à quelque chose, vous promettez de lui sacrifier de véritables intérêts humains. . Et si nous ne pouvions pas mettre à jour ou supprimer un algorithme qui crache de la malveillance ou des mensonges parce que certaines personnes craignent que l’algorithme soit conscient ? Ou imaginez ce qui se passerait si quelqu’un laissait un humain mourir pour sauver son “ami” IA. Accorder trop tôt des droits substantiels aux systèmes d’IA peut entraîner d’énormes coûts humains.

La seule façon d’éviter le risque de surattribution ou de sous-attribution de droits aux systèmes d’IA avancés est de ne pas créer de toutes pièces des systèmes sensoriels discutables. Aucun de nos systèmes d’IA actuels n’a de conscience significative. Il n’y a pas de mal à les enlever. Nous devons nous en tenir à la création de systèmes dont nous savons qu’ils ne sont pas très perspicaces et ne méritent pas leurs droits. Cela peut être considéré comme une propriété jetable.

Certains objecteront : Bloquer la création de systèmes d’IA par l’intellect, et donc l’ambiguïté morale, entraverait la recherche.

Mais les soins raisonnables sont rarement gratuits. Pour éviter une catastrophe morale, cela vaut la peine de s’attarder un peu. Les grandes entreprises d’IA devraient exposer leur technologie à un examen minutieux par des experts indépendants qui peuvent évaluer la probabilité que les systèmes se trouvent dans une zone morale grise.

Même si les experts ne sont pas d’accord sur la base scientifique de la conscience, ils peuvent identifier des principes généraux pour définir cette zone. capacité. Les experts pourraient développer un ensemble de directives éthiques à suivre par les entreprises d’IA, mais jusqu’à ce moment-là, développer des solutions alternatives qui évitent les zones grises controversées de la conscience. .

Dans ce sens, les utilisateurs ne devraient jamais se demander si une technologie est un outil ou un compagnon. L’attachement des gens à des appareils comme Alexa est comme l’attachement d’un enfant à un ours en peluche. Nous savons que lorsque la maison prend feu, nous laissons nos jouets derrière nous. Mais les entreprises technologiques ne devraient pas manipuler les utilisateurs ordinaires pour qu’ils voient les systèmes d’IA inconscients comme de véritables amis sensibles.

En fin de compte, le bon mélange d’expertise scientifique et d’ingénierie peut nous permettre de créer des systèmes d’IA avec une conscience incontestable. Mais nous devons être prêts à en payer le prix. Donnez-leur les droits qu’ils méritent.

Eric Schwitzgebel est professeur de philosophie à UC Riverside et auteur de A Theory of Jerks and Other Philosophical Misadventures. Henry Shevlin est chercheur principal spécialisé dans les esprits non humains au Leverhurm Center for the Future of Intelligence de l’Université de Cambridge.

Leave a Comment