Microsoft a récemment ouvert sa recherche Bing améliorée par ChatGPT à un groupe de personnes et cela prouve à quel point c’est mauvais. Nous ne devrions pas être surpris car ce type d’IA est à 90% une nouveauté, mais nous le sommes parce qu’elle a été annoncée comme la prochaine venue de la sainteté technologique.
Ce n’est pas. Ce n’est pas non plus la faute de Microsoft – Google sera de la même manière – c’est juste que la technologie n’est pas conçue pour faire cela et si c’était le cas, elle n’est même pas près d’être prête. Les seules personnes qui aspirent à davantage de ce type d’intégration de l’IA utilisant la technologie actuelle sont celles qui ne comprennent pas vraiment ses limites.
Même le PDG d’OpenAI, Sam Altman, a déclaré que « les gens ne demandent qu’à être déçus et ils le seront » en ce qui concerne ChatGPT (OpenAI est la société qui a créé le logiciel ChatGPT). Cela n’avait pas d’importance parce que les gens voyaient tout le monde s’amuser avec tout en affirmant que cela mettrait les gens au chômage ou transformerait la scolarité en mode facile car il peut écrire tous les papiers pour les étudiants. Les entreprises n’avaient qu’à monter à bord du train à la mode et essayer d’encaisser, que les conséquences soient maudites.
Alors, qu’est-ce qui ne va pas avec BingGPT, demandez-vous ? Abondance. Il n’a pas peur de lancer des insultes racistes. Il s’est trompé sur tous les faits dans sa démonstration scénarisée lorsque Microsoft l’a annoncé. Si vous demandez, il vous dira que les Eagles ont remporté le Super Bowl la veille du jour où il a été joué. Mais surtout, il imite le comportement sur lequel il a été formé : les gens qui tapent des choses sur Internet.
Exemple :
Ma nouvelle chose préférée – Le nouveau bot ChatGPT de Bing se dispute avec un utilisateur, l’informe que l’année en cours est 2022, dit que son téléphone pourrait avoir un virus et dit « Vous n’avez pas été un bon utilisateur » Pourquoi ? Parce que la personne a demandé où Avatar 2 s’affiche à proximité pic.twitter.com/X32vopXxQG13 février 2023
Ce n’est pas un canular, et les nombreux autres exemples de BingGPT ne sont pas tout aussi stupides. Vous devez simplement comprendre pourquoi il fait ce qu’il fait et tout cela a du sens.
ChatGPT et la plupart des autres LLM (Large Language Models) sont formés en « lisant » Internet. Une bibliothèque de texte numérique géante est parfaite pour entraîner une IA à chercher des réponses et à essayer de ressembler à une personne lorsqu’elle vous les régurgite.
Mais ce n’est pas une personne et n’a aucun sens du bien contre le mal quand il s’agit de vous répondre. Cela signifie qu’il n’a aucun moyen de savoir si les informations présentées sont factuelles et qu’il fonde sa « personnalité » sur les internautes.
Le premier va être difficile à corriger. Même si nous l’appelons intelligence artificielle, elle n’est décidément pas intelligente. C’est comme un perroquet et il ne peut que répéter ce qu’on lui a dit. Le second est impossible à résoudre sans trouver une nouvelle façon de former l’IA – il peut agir comme un troll Reddit car il a appris des trolls Reddit.
L’IA est programmée pour répondre en utilisant des termes tels que assertif, autoritaire, gentil, etc. Elle montre des exemples de l’apparence de chacune de ces choses. Le résultat est comme se disputer avec un toxicomane parfois parce qu’il a appris à se disputer comme le fait un toxicomane. Ce n’est ni diabolique, ni stupide, ni même méchant. Il fait juste ce pour quoi il a été programmé : être prédictif et utiliser des exemples de sa base de données comme moyen de ressembler à un humain.
En ce moment, c’est bon pour rire et rien d’autre à moins que vous n’essayiez de tirer profit de la corruption avec votre cours payant pour « ChatGPT comme un pro » Microsoft (et Google) n’auraient jamais dû le présenter comme autre chose qu’un jouet soigné. Mais les deux l’ont fait et maintenant nous nous attendons à ce qu’il soit fiable et faisant autorité en matière de recherche sans ressembler aux réponses de Twitter. formé avec.
Les futures générations de LLM sauront mieux éliminer les absurdités et peut-être seront-elles également mieux adaptées pour devenir notre robot de recherche / meilleur ami, mais cela nécessitera une percée majeure dans l’IA – tout ce qui est basé sur les méthodes actuelles ne va jamais être assez bon. En attendant, n’oubliez pas de profiter de l’épave du train et de ne pas en prendre trop au sérieux si et quand il arrive sur votre téléphone.