Le dernier brouhaha inexpliqué avec les résultats de ChatGPT met en évidence les dangers de l’automatisation.
Le populaire système d’intelligence artificielle (IA) ChatGPT d’OpenAI a subi un léger effondrement public entre le 20 et le 21 février, ce qui a dérouté et déconcerté les utilisateurs en déversant du charabia et d’autres étrangetés, y compris un pseudo-Shakespeare spontané.
Le 21 février à 8 h 14, heure normale du Pacifique, le problème a apparemment été résolu. La dernière mise à jour sur la page d’état d’OpenAI indique que « ChatGPT fonctionne normalement ». Cela indique que le problème a été résolu 18 heures après qu’OpenAI l’a signalé pour la première fois.
On ne sait pas encore exactement ce qui a causé le problème et OpenAI n’a pas encore répondu à notre demande de commentaires.
Sur la base d’un examen rapide des résultats rapportés, il semblerait que ChatGPT ait connu une certaine forme de confusion en matière de tokenisation. En raison de la nature de la boîte noire des grands modèles de langage construits sur la technologie GPT, il n’est peut-être pas possible pour les scientifiques d’OpenAI de diagnostiquer exactement ce qui n’a pas fonctionné. Si tel est le cas, il est probable que l’équipe se concentrera sur des mesures préventives telles que la mise en place de garde-fous supplémentaires contre de longues chaînes de charabia apparent.
L’opinion des médias sociaux semble indiquer que tout dommage causé par le chatbot se limite, dans l’ensemble, à une perte de temps pour les utilisateurs qui s’attendent à des réponses sensées aux requêtes.
Cependant, cet exemple illustre la possibilité pour les systèmes d’IA générative d’envoyer à tout moment des messages inattendus, hallucinés ou incohérents. Ces types de réponses indésirables peuvent avoir des conséquences négatives.
Air Canada, par exemple, a récemment découvert qu’elle ne pouvait pas blâmer l’algorithme lorsqu’un tribunal lui a ordonné de rembourser partiellement un client qui avait reçu de mauvaises informations sur les politiques de réservation d’un chatbot du service client.
Dans le monde des crypto-monnaies, les investisseurs utilisent de plus en plus de systèmes automatisés basés sur la technologie LLM et GPT pour créer des portefeuilles et exécuter des transactions. Comme l’indique l’échec récent de ChatGPT, même les modèles les plus robustes peuvent connaître des échecs inattendus à n’importe quelle échelle.