TECHNOLOGIE, TENDANCES INTERNET, GAMING, BIG DATA

L’OpenAI lance une équipe chargée de la sécurité des enfants : vers une utilisation sûre de l’IA

L’OpenAI lance une équipe chargée de la sécurité des enfants : vers un...

By aurora

OpenAI a annoncé la formation d’une nouvelle équipe dédiée à la sécurité des enfants. Cette initiative a été prise en réponse aux préoccupations soulevées par des activistes et des parents concernant l’utilisation abusive des outils d’intelligence artificielle développés par OpenAI par des enfants.

L’importance de la sécurité des enfants dans l’utilisation de l’IA

OpenAI a reconnu la nécessité d’aborder la question de la sécurité des enfants dans l’utilisation de l’IA. Dans son annonce, l’entreprise a souligné l’importance de travailler avec des partenaires internes et externes pour gérer de manière appropriée les processus, les incidents et les examens liés aux enfants utilisateurs.

La formation de l’équipe Child Safety d’OpenAI

La nouvelle équipe Child Safety d’OpenAI est actuellement à la recherche d’un expert en sécurité des enfants qui sera chargé de faire respecter les politiques d’OpenAI dans le contexte du contenu généré par l’IA. Ce rôle comprendra également le développement de processus d’examen spécifiques pour les contenus « sensibles », vraisemblablement liés aux enfants.

Objectifs de l’équipe OpenAI Child Safety

L’équipe Child Safety de l’OpenAI a plusieurs objectifs clés. Tout d’abord, elle cherchera à prévenir l’abus ou la mauvaise utilisation des outils d’IA par les enfants. En outre, elle travaillera avec des groupes internes et externes pour développer des politiques et des lignes directrices spécifiques pour l’utilisation de l’IA par les enfants. Enfin, l’équipe se concentrera sur le traitement des incidents ou des litiges liés à l’utilisation des produits d’IA par les enfants.

Préoccupation croissante concernant l’utilisation de l’IA par les enfants

Ces dernières années, l’utilisation de l’IA par les enfants est devenue de plus en plus répandue. Selon une enquête du Center for Democracy and Technology, 29 % des enfants ont utilisé des outils d’IA tels que ChatGPT pour faire face à des problèmes d’anxiété ou de santé mentale, 22 % pour des problèmes avec leurs amis et 16 % pour des conflits familiaux. Cette augmentation de l’utilisation de l’IA par les enfants a suscité une inquiétude croissante quant aux effets négatifs qu’elle pourrait avoir sur eux.

Nécessité de lignes directrices sur l’utilisation de l’AI par les mineurs

Des organisations telles que l’UNESCO ont souligné la nécessité d’établir des lignes directrices spécifiques pour l’utilisation de l’IA dans l’éducation, y compris des limites d’âge pour les utilisateurs et des garanties sur la protection des données et de la vie privée des utilisateurs. L’IA générative peut être une formidable opportunité pour le développement humain, mais elle peut aussi causer des dommages et des préjudices si elle n’est pas intégrée dans l’éducation avec la participation du public et les garanties et réglementations gouvernementales nécessaires.

En savoir plus sur Syrus

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture