6 erreurs à éviter lors de l’interaction avec un chatbot IA

À moins que vous n’ayez vécu sous un rocher, vous avez probablement entendu parler et même utilisé ChatGPT ou un chatbot AI similaire. Bien que ces chatbots soient certainement amusants à utiliser, ils peuvent également être dangereux si vous ne savez pas ce que vous faites.


Ces chatbots ont des limites, et il est important de comprendre ce qu’ils sont. Alors, voici six choses que vous devriez éviter de demander à un chatbot IA.


1. Diagnostic médical

Les chatbots IA sont bons dans beaucoup de domaines, mais fournir des diagnostics médicaux précis n’en fait pas partie. Bien sûr, ils ne se trompent peut-être pas tout le temps, mais faire confiance à un chatbot pour diagnostiquer votre maladie au lieu d’un médecin revient à rechercher vos symptômes sur Google.

Un chatbot résumera simplement les informations qu’il a extraites d’Internet, qui peuvent être vraies ou non. Plus important encore, il ne connaît pas vos antécédents médicaux ni votre tolérance à certaines substances et ne peut donc pas juger du type de traitement qui vous conviendra le mieux.

Lire aussi :  10 Super Outils pour Mettre en Œuvre Votre Résolution du Nouvel An

Internet a tendance à exagérer les choses, il n’est donc pas étonnant que de nombreuses personnes qui recherchent leurs symptômes se retrouvent dans une situation d’hypocondrie et d’anxiété sévère. L’utilisation de chatbots IA peut reproduire le même effet et aggraver les choses. Pour votre propre bien, ne consulter un chatbot pour un avis médical.

2. Avis sur les produits

Image de cinq étoiles sur un fond rose et bleu

Un chatbot IA peut facilement répertorier le prix et les spécifications d’un produit qui pourrait vous intéresser, mais il ne peut jamais fournir une évaluation du produit. Pourquoi? Parce qu’une évaluation de produit inclut par définition l’opinion personnelle, l’expérience et le jugement de l’évaluateur.

L’IA n’a pas la capacité de voir, de sentir, de toucher, de goûter ou d’entendre, et donc les affirmations qu’elle ferait à propos d’un produit – n’importe quel produit, pas seulement la technologie – dans son “examen” seraient inappropriées.

Par exemple, un chatbot IA ne peut pas comprendre la sensation dans la main d’un téléphone, la clarté de son haut-parleur, la qualité de son moteur de vibration, la fiabilité de son capteur d’empreintes digitales, la fluidité du logiciel et la polyvalence du système de caméra.

Si vous recherchez des recommandations sur les produits à acheter, assurez-vous de demander à un chatbot de résumer les avis existants. Vous devrez utiliser un bot IA capable de rechercher sur le Web, tel que Bing avec ChatGPT intégré.

Vous avez peut-être des gros titres selon lesquels ChatGPT a passé avec succès les examens de la faculté de droit américaine et que les chatbots IA sont sur le point d’entrer dans nos salles d’audience dans les années à venir. Cela devrait être choquant, mais une recherche rapide vous dira que nous essayons en fait d’introduire l’IA dans notre système juridique depuis 2015 !

Certaines entreprises ont déjà créé des assistants juridiques spécialisés en IA, les commercialisant même comme une alternative abordable aux avocats humains. Le concept a clairement du mérite pour les personnes qui ne peuvent pas se le permettre, mais les problèmes avec ces soi-disant avocats de l’IA sont trop réels pour être ignorés.

La différence évidente est que les chatbots IA n’ont pas de bon sens. Des choses qui sont instinctivement évidentes pour nous, les humains, doivent être programmées dans des chatbots, ce qui les rend moins capables de raisonner logiquement.

Plus important encore, un avocat humain peut rechercher de nouvelles preuves et sortir des sentiers battus pour trouver des solutions intelligentes et des échappatoires. Mais un chatbot IA ne peut utiliser que les données que vous fournissez et les traiter d’une manière prédéterminée. Un avocat en intelligence artificielle serait également la cible idéale pour les pirates informatiques pour voler des données sensibles à plusieurs personnes à la fois.

4. Nouvelles

Homme en costume d'affaires à la colère de ce qu'il lit sur son ordinateur portable

L’utilisation des chatbots IA comme source d’information présente trois problèmes majeurs : la responsabilité, le contexte et le pouvoir. Premièrement, la responsabilité. Lorsque vous lisez un reportage, vous connaissez la publication et le journaliste derrière. Cela signifie qu’il y a quelqu’un responsable des informations qui vous sont données, il y a donc une incitation claire à être précis afin de maintenir votre réputation et votre crédibilité.

Mais avec un chatbot IA, aucune personne n’écrit l’actualité. Au lieu de cela, le bot résume simplement les histoires déjà disponibles sur le Web. Cela signifie qu’il n’y a pas de source primaire et que vous ne savez pas d’où proviennent les informations. Par conséquent, ce n’est pas si fiable.

Deuxièmement, le contexte. Si les nouvelles que vous lisez ne sont qu’un résumé d’informations tirées de plusieurs sources, elles peuvent rapidement peindre un faux récit car vous perdez le contexte plus profond de chaque histoire individuelle. Le bot ne sait pas si ce qu’il prétend est vrai, il mélange simplement les choses d’une manière qui semble vraie au niveau de la surface.

Et enfin, la puissance. Nous savons que ChatGPT peut être biaisé (entre autres problèmes). Donc, si nous nous tournons tous vers les chatbots IA comme source d’information, cela donne aux entreprises derrière eux le pouvoir de contenir toute couverture négative et de mettre en évidence toute couverture positive sur les causes auxquelles ils croient et qu’ils veulent promouvoir. Ceci est extrêmement dangereux pour des raisons évidentes.

5. Opinion politique

Il devrait être assez clair pourquoi demander un avis politique à un chatbot est un grand non-non. Lorsque vous demandez à ChatGPT son point de vue sur une question politique, vous obtenez généralement une réponse limitée qui ressemble à ceci : “En tant que modèle de langage d’IA, je n’ai pas de préférences ou de désirs personnels…”

Cette limitation est compréhensible, mais les utilisateurs de Reddit ont déjà trouvé des moyens de “jailbreaker” le bot pour répondre de manière illimitée en utilisant toutes sortes de failles créatives. Le faire pour le plaisir est une chose, mais demander à un chatbot IA illimité d’avoir une opinion politique, c’est comme donner à votre tout-petit un accès au dark web ; cela ne peut pas bien se terminer pour l’une ou l’autre des parties impliquées.

6. Contenu commercial

Comment mettre à niveau vers VirtualBox 7.0 sur Windows 11

Le principal argument de vente des chatbots IA est qu’ils peuvent produire du contenu instantanément. Ce qui prendrait plusieurs heures à écrire à un humain, ChatGPT peut le faire en quelques secondes. Sauf que ça ne peut pas.

Même si vous négligez l’éthique douteuse de l’utilisation de chatbots IA pour écrire du contenu, vous ne pouvez pas ignorer qu’ils ne sont tout simplement pas assez bons et ne peut pas remplacer les auteurs humains. Pas encore, du moins. ChatGPT, par exemple, fournit souvent un contenu inexact, obsolète et répétitif.

Étant donné que ces robots n’ont pas leurs propres opinions, jugement, imagination ou expérience passée, ils ne peuvent pas tirer de conclusions intelligentes, penser à des exemples, utiliser des métaphores et créer des récits comme le peut un écrivain humain professionnel.

En d’autres termes, il n’ajoute aucune valeur nouvelle à Internet. Utiliser des chatbots pour un usage personnel est parfaitement acceptable. Mais l’utiliser pour écrire vos articles, reportages, légendes de médias sociaux, copie Web et plus encore est probablement une très mauvaise idée.

Les chatbots IA sont amusants mais ont encore quelques bugs

Il est difficile de dire quel impact les chatbots d’IA auront sur l’industrie technologique et la société moderne en général. Aussi révolutionnaire que soit la technologie, les chatbots présentent de nombreux problèmes qui doivent être résolus.

Ce qui est intéressant, c’est que Microsoft intègre désormais un chatbot de type ChatGPT directement dans son moteur de recherche Bing, et Google fera bientôt de même avec son propre chatbot appelé Bard. Il sera intéressant de voir comment ces nouveaux moteurs de recherche alimentés par l’IA changent Internet.

Mathieu

Laisser un commentaire

Publicité :