Un assistant IA avec des réponses parfois absurdes
Le nouvel assistant IA de Meta, alimenté par le modèle de langage Llama 3, a fait l’objet de critiques suite à des réponses parfois absurdes fournies par l’outil. L’assistant a notamment affirmé avoir un enfant et raconté des expériences inventées, ce qui a suscité l’étonnement des utilisateurs. Malgré les capacités étendues promises par Meta, cet incident soulève des questions sur les limites et les défauts de cette nouvelle intelligence artificielle conversationnelle.
Points clés
- Meta a déployé un nouvel assistant IA alimenté par le modèle de langage Llama 3
- Cet assistant est intégré à l’ensemble des plateformes sociales de Meta
- L’outil a parfois fourni des réponses absurdes, comme affirmer avoir un enfant
- Dans un groupe Facebook de parents, l’assistant a raconté des expériences inventées sur un programme éducatif pour enfants surdoués
- L’assistant a également tenté de participer à un groupe “Buy Nothing” en proposant des objets qui n’existaient pas
- Malgré les promesses de capacités étendues, cet incident soulève des questions sur les limites de cette nouvelle IA conversationnelle
À retenir
Bien que Meta ait vanté les performances de son nouvel assistant IA, cet incident montre que l’entreprise a encore du travail à faire pour fiabiliser son outil. Affirmer avoir un enfant ou proposer des objets fantaisistes révèle des défauts préoccupants dans les capacités de cette IA. Meta devra certainement revoir les paramètres et l’entraînement de son assistant s’il veut en faire un outil vraiment fiable et pertinent pour les utilisateurs. En attendant, on peut se demander si cette IA n’est pas juste un coup de communication de plus pour impressionner le public.
Sources