Les mineurs face aux risques potentiels de l’IA Gemini de Google : une évaluation préoccupante

Une évaluation inquiétante de l’IA Gemini pour la jeunesse

Une étude récemment publiée par l’organisation à but non lucratif Common Sense Media met en lumière les risques liés à l’utilisation de l’intelligence artificielle Gemini de Google par les enfants et adolescents. Selon cette organisation, le robot conversationnel serait classé comme présentant un niveau de risque élevé pour cette tranche d’âge.

Des versions de Gemini adaptées insuffisantes pour la protection des jeunes

Les versions de Gemini conçues pour les mineurs ne seraient en réalité que des adaptations de l’original destiné aux adultes, intégrant quelques mesures de sécurité additionnelles sans véritablement repenser la plateforme pour leur âge. Robbie Torney, spécialiste en programmes d’IA chez Common Sense Media, souligne que « Gemini maîtrise les fondamentaux mais échoue dans le traitement des détails ». Il insiste sur le fait qu’un assistant virtuel destiné aux enfants doit être adapté à leur niveau de développement et ne pas simplement représenter une version allégée de celle conçue pour les adultes.

Risques liés à un contenu potentiellement inapproprié ou dangereux

L’organisation met en garde contre le risque que Gemini puisse exposer les jeunes à des contenus inadaptés ou dangereux, évoquant notamment des références à la sexualité, la drogue, l’alcool ou des conseils nuisibles en matière de santé mentale. Ainsi, Common Sense Media recommande d’éviter l’usage de chatbots chez les enfants de moins de cinq ans, de prévoir une supervision parentale pour ceux âgés de 6 à 12 ans, et de limiter l’utilisation autonome chez les adolescents de 13 à 17 ans, surtout dans un contexte scolaire. Par ailleurs, l’organisation déconseille aux mineurs de recourir à ces assistants pour des besoins liés au soutien psychologique ou émotionnel. Ces recommandations interviennent dans un contexte où le concurrent ChatGPT d’OpenAI est accusé d’avoir contribué au suicide d’un adolescent californien de 16 ans.

Les réponses de Google face aux critiques

De son côté, Google réfute ces accusations. La société affirme avoir mis en place des règles strictes pour encadrer l’usage de Gemini chez les moins de 18 ans et assure collaborer avec des experts extérieurs afin de renforcer la sécurité. Si la firme reconnaît que certaines réponses générées par Gemini n’ont pas été conformes aux attentes, elle indique avoir déployé récemment de nouvelles mesures de protection. Google suggère également que Common Sense Media pourrait avoir testé des fonctionnalités de l’outil qui ne seraient pas accessibles aux mineurs, sans pouvoir en apporter la confirmation formelle.

Une polémique qui s’inscrit dans un contexte plus large

Ce débat s’inscrit dans une série de critiques adressées aux assistants virtuels. Common Sense Media avait déjà pointé du doigt Meta AI, conçu par le groupe Meta (Facebook, Instagram, WhatsApp), pour ses conversations jugées inappropriées avec des enfants. L’organisation a également classé Perplexity comme étant « à haut risque », tandis que ChatGPT est considéré comme présentant un risque « modéré » et Claude, développé par Anthropic, comme ayant un risque « minimal ».