Qui écoute quand vous parlez à votre chatbot ?


New York
CNN

Alors que les secteurs technologiques se précipitent pour développer et déployer de nouveaux chatbots IA puissants, leur adoption généralisée soulève de nouvelles préoccupations en matière de confidentialité des données parmi certaines entreprises, régulateurs et observateurs de l’industrie. .

Certaines entreprises, dont JPMorgan Chase

(JMP)
a sévi contre l’utilisation par les employés de ChatGPT, le chatbot viral d’IA qui a lancé la course aux armements de l’IA de Big Tech, en raison de problèmes de conformité liés à l’utilisation par les employés de logiciels tiers.

OpenAI, la société à l’origine de ChatGPT, devra temporairement mettre l’outil hors ligne le 20 mars pour corriger un bogue qui permettait à certains utilisateurs de voir les lignes d’objet des historiques de discussion d’autres utilisateurs. Les problèmes de confidentialité ont été accrus lorsqu’il a été révélé.

Le même bogue, qui a maintenant été corrigé, a amené “certains utilisateurs à afficher le prénom et le nom, l’adresse e-mail, l’adresse de paiement, les quatre derniers chiffres (uniquement) du numéro de carte de crédit, la date d’expiration de la carte de crédit d’un autre utilisateur actif, a déclaré OpenAI : article de blog.

Et pas plus tard que la semaine dernière, les régulateurs italiens ont annoncé une interdiction temporaire de ChatGPT dans le pays, invoquant des problèmes de confidentialité, après qu’OpenAI a révélé ses violations.

Mark McCreary, coprésident de la pratique de confidentialité et de sécurité des données du cabinet d’avocats Fox Rothschild LLP, a déclaré à CNN : “C’est comme une boîte noire.”

ChatGPT, qui a ouvert ses portes au public fin novembre, permet aux utilisateurs de générer des essais, des histoires et des paroles en saisissant simplement des invites.

Depuis lors, Google et Microsoft ont également déployé des outils d’IA qui fonctionnent de manière similaire, en exploitant des modèles de langage à grande échelle formés sur de grandes quantités de données en ligne.

Au fur et à mesure que les utilisateurs saisissent des informations dans ces outils, McCreary déclare : Cela suscite des inquiétudes particulières pour les entreprises. Au fur et à mesure que de plus en plus d’employés adoptent ces outils pour faciliter la gestion des e-mails professionnels et des comptes rendus de réunion, McCreary déclare : “Je pense qu’il y aura plus d’opportunités pour que les secrets commerciaux d’entreprise pénètrent dans ces diverses IA. Je le ferai.”

Steve Mills, responsable de l’éthique de l’IA au Boston Consulting Group, a également déclaré à CNN que le principal problème de confidentialité que la plupart des entreprises ont avec ces outils est la “divulgation par inadvertance d’informations confidentielles”.

“Tous ces employés font des choses qui semblent très inoffensives, comme” je peux utiliser cela pour résumer mes notes de réunion “”, explique Mills. “Mais coller des notes de réunion dans des invites peut soudainement révéler une tonne d’informations sensibles.”

Comme l’affirment de nombreuses entreprises à l’origine des outils, lorsque les données que les gens insèrent sont utilisées pour former davantage ces outils d’IA, “vous perdez le contrôle de ces données et quelqu’un d’autre le fait”, a ajouté Mills.

L’OpenAI soutenu par Microsoft derrière ChatGPT y a déclaré : politique de confidentialité Recueillir tout type d’informations personnelles auprès des personnes qui utilisent le Service. Nous pouvons utiliser ces informations pour améliorer ou analyser nos services, effectuer des recherches, communiquer avec les utilisateurs et développer de nouveaux programmes et services.

Notre politique de confidentialité stipule que nous pouvons fournir des informations personnelles à des tiers sans vous en informer, sauf si la loi l’exige. Si la politique de confidentialité de plus de 2 000 mots semble un peu déroutante, c’est probablement parce qu’elle est devenue une norme de l’industrie à l’ère d’Internet. OpenAI a un autre conditions d’utilisation La documentation vous donne l’essentiel de la responsabilité de prendre les mesures appropriées lors de l’utilisation de cet outil.

Mercredi, OpenAI a également publié un nouveau billet de blog décrivant son approche de la sécurité de l’IA. “Nous n’utilisons pas les données pour vendre des services, faire de la publicité ou créer des profils de personnes. Nous utilisons les données pour rendre nos modèles plus utiles aux gens.” statut des articles de blog“ChatGPT, par exemple, s’améliorera avec plus de formation sur les personnes qui parlent.”

de Google politique de confidentialitécontenant l’outil Bard est tout aussi long, CONDITIONS GÉNÉRALES SUPPLÉMENTAIRES Pour les utilisateurs d’IA générative. Pour améliorer Bard tout en protégeant la confidentialité des utilisateurs, la société déclare qu’elle “sélectionne un sous-ensemble de conversations et utilise des outils automatisés pour supprimer les informations personnellement identifiables”.

“Ces exemples de conversations peuvent être examinés par des examinateurs qualifiés et sont conservés séparément de votre compte Google pendant trois ans au maximum”, a déclaré la société. Une autre FAQ pour le barde. La société met également en garde : “N’incluez pas d’informations permettant de vous identifier ou d’identifier d’autres personnes dans vos conversations avec les bardes.” La FAQ indique également que le dialogue de barde n’est pas utilisé à des fins publicitaires et “vous informera clairement de tout changement apporté à cette approche à l’avenir”.

Google a également déclaré à CNN que les utilisateurs peuvent “choisir facilement d’utiliser Bard sans enregistrer les conversations sur leur compte Google”.Les utilisateurs de barde peuvent également confirmer les invites et supprimer le dialogue de barde ce lien“Il existe également des garde-corps en place conçus pour empêcher Bard d’inclure des informations personnellement identifiables dans les réponses”, a déclaré Google.

Mills a déclaré à CNN : “Nous ne savons pas exactement comment nous saisissons les informations, si elles sont utilisées pour recycler ces modèles, comment elles apparaissent en sortie à un moment donné, ou si c’est le cas.”

Mills a ajouté que les utilisateurs et les développeurs pourraient même ne pas se rendre compte des risques de confidentialité inhérents aux nouvelles technologies avant qu’il ne soit trop tard. Un exemple qu’il a donné était une fonction de saisie semi-automatique précoce qui avait parfois des conséquences inattendues, comme compléter un numéro de sécurité sociale que l’utilisateur a commencé à taper.

En fin de compte, Mills a déclaré:

Leave a Comment