Actualités

Google met à jour Gemini AI et s’excuse pour les images inexactes « woke »

Google met à jour Gemini AI au milieu d’une controverse sur des images inexactes, introduisant des fonctionnalités tout en répondant aux préoccupations concernant les représentations historiques biaisées.

Google a publié deux mises à jour de son modèle d’intelligence artificielle (IA), Gemini , au milieu d’une tempête de controverses sur les réseaux sociaux concernant les images inexactes « woke » produites par le modèle. 

Le 20 février, puis le 21 février, Gemini a reçu deux nouvelles mises à niveau de son système. Le premier s’applique à Gemini Advanced, lui permettant désormais d’éditer et d’exécuter des extraits de code Python directement dans son interface utilisateur. Les utilisateurs ayant accès à la version avancée peuvent expérimenter le code basé sur Python pour voir comment il fonctionne avant de le copier, prétendant ainsi gagner du temps et vérifier les fonctionnalités.

La deuxième mise à jour concerne les forfaits professionnels et d’entreprise Gemini, qui permettent désormais aux utilisateurs d’accéder à la version 1.0 Ultra, l’un des modèles les plus avancés de Google, et d’utiliser une protection des données de niveau entreprise. Cela empêche les modèles Gemini d’utiliser les conversations à des fins de formation.

C’était auparavant une préoccupation pour les grandes entreprises, telles que le fournisseur de services mobiles Samsung, qui  a interdit à ses employés d’utiliser des outils d’IA de type ChatGPT sur les appareils appartenant à Samsung et les réseaux internes en mai 2023.

Ces deux mises à jour font suite à la plus récente du 8 février, par laquelle Google a rebaptisé son chatbot de Bard à Gemini  et a inclus de nombreuses fonctionnalités et capacités améliorées. 

Cependant, aucune des mises à jour n’a mentionné de modification de la sortie d’image de Gemini. Ce sujet a récemment provoqué un tollé sur les réseaux sociaux en raison des  images « woke » produites par le modèle , qui créent des représentations inexactes de l’histoire.

Le développeur de Google Gemini AI, Jack Krawczyk, a publié sur X que la société est « consciente que Gemini propose des inexactitudes dans certaines représentations de génération d’images historiques » et a déclaré que l’équipe essayait de mettre en œuvre des solutions « immédiates ».

https://twitter.com/JackK/status/1760334258722250785

Pendant ce temps, les inexactitudes de l’image de Gemini ont frotté les utilisateurs des médias sociaux, avec un utilisateur qui prétend être un développeur travaillant chez Google postant qu’il n’a « jamais été aussi gêné » de travailler pour l’entreprise.

Un autre utilisateur a également souligné un biais similaire dans le chatbot IA populaire ChatGPT, développé par OpenAI, lorsqu’il l’a invité à créer des images spécifiques.

L’utilisateur s’est demandé pourquoi ChatGPT bénéficiait d’un « laissez-passer gratuit » lors de l’examen d’Internet pour le même problème.

En réponse, Elon Musk a déclaré que son propre modèle d’IA, Grok, était « si important » alors qu’il se prépare à publier de nouvelles versions améliorées dans les semaines à venir.

Néanmoins, Grok a été au centre de l’attention pour une autre raison : avoir le même nom, bien qu’une orthographe différente, que la puce Groq de AI Language Processing United (LPU)  qui a été déposée et développée en 2016. 

Groq a gagné en popularité sur Internet du jour au lendemain après la publication de ses premiers tests de référence publics,  surpassant les meilleurs modèles d’autres grandes entreprises technologiques.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *