Site icon Syrus

La responsabilité de l’IA, une question qui se pose déjà 

Les enthousiastes des intelligences artificielles semblent promettre un avenir utopique où les IA seraient à la fois des entités salvatrices et serviables pour l’humanité toute entière. Cette promesse d’un « avenir meilleur » est déjà mise à mal en raison des faux-pas et des lacunes parfois surprenantes des IA. Mais, même si l’optimise a jusque-là réussi à étouffer les appréhensions, la réalité semble déjà avoir rattrapé l’industrie embryonnaire de l’intelligence artificielle. 

La question de la responsabilité de l’IA 

Dans les années 70, IBM a donné une présentation dont les conclusions sont encore d’actualité. En effet, dans cette présentation, il était clairement dit « Un ordinateur ne peut jamais être tenu pour responsable, par conséquent un ordinateur ne devrait jamais prendre des décisions exécutives. »

Aujourd’hui plus qu’hier, toute l’importance de cette citation refait surface dans un contexte où l’IA semble être en vogue. Plutôt que dans un rôle d’assistant, les plus grands adhérant de l’Intelligence Artificielle, y voient une entité infaillible qui pourrait sauver l’humanité de sa propension à l’imperfection. 

Pourtant, placer l’IA dans un tel rôle d’entité dotée de l’autorité de décision présente de nombreux problèmes. Notamment, parce qu’elle est encore loin d’être infaillible et que les erreurs qu’elle est susceptible de commettre peuvent avoir des conséquences majeures et des effets parfois imprévisibles pour tous les acteurs concernés. Ce serait par exemple, le cas d’une IA qui proposerait une liste des meilleurs sites de jeu. 

Alors que vous pourriez plus faire confiance à un expert humain qui vous invite à essayer certains casinos en ligne, une IA serait une source moins fiable. Après tout, ses propositions pourraient être imprécises, erronées ou terriblement contreproductives. 

 

Quand une IA invente des politiques de relation client

La faillibilité des IA sont déjà mises en évidence avec les informations fausses qui se propagent grâce à leur aide. Mais, l’un des exemples les plus inquiétants des dernières semaines relève de son rôle en tant qu’intermédiaire dans les relations et transactions humaines. 

En effet, la compagnie aérienne Air Canada s’est fondée sur l’IA pour développer un chatbot capable d’interagir avec sa clientèle. Ce chatbot était supposé répondre à leurs inquiétudes, satisfaire les requêtes usuelles et simplifier la tâche de l’équipe en charge du service client d’Air Canada.

Une cliente désireuse de connaître les politiques d’annulation et de remboursement des billets pratiquée par Air Canada s’est donc adressée à ce chatbot pour avoir des éclaircissements sur ces questions. L’IA d’Air Canada lui a toutefois fourni des informations inexactes auxquelles la cliente s’est tenue. 

Poursuivie en justice, la compagnie aérienne a finalement dû se conformer à la politique de remboursement fictive créée par son IA. Une politique qui, rappelons-le, était en contradiction avec la réelle politique de l’entreprise. 

Cet exemple montre bien les conséquences désastreuses que l’utilisation de l’IA peut avoir aujourd’hui dans le contexte des interactions humaines. Ceci ne se limite pas à des politiques de remboursement. On image bien que les prix des produits, les délais de validité des offres, les pièces constitutives pour des dossiers ou même les analyses de déclarations peuvent être irrémédiablement altérées par les lubies hallucinatoires des IA d’aujourd’hui. 

Peut-on mettre un terme aux hallucinations des IA ? 

Pour interférer sur le fonctionnement d’un système informatique, il faut nécessairement en comprendre le fonctionnement. Or, les développeurs IA sont les premiers à admettre qu’ils ne cernent pas tous les contours des intelligences artificielles modernes. Notamment avec la notion de la « black box » qui ne laisse pas entrevoir les mécaniques profondes autour desquelles s’articulent les IA. 

Les hallucinations sont des produits dérivés du fonctionnement de l’IA et de la façon dont elle est entraînée. Il n’est pas nécessairement possible d’identifier la donnée source qui a causé l’hallucination et il n’est pas toujours possible de s’assurer que le comportement problématique a été corrigé. On peut dire sans exagération que les développeurs sont eux-mêmes, en train de naviguer à vue quand il s’agit du fonctionnement de leurs créations. En somme, nous sommes encore loin d’un scénario où les IA seraient moins sujettes aux hallucinations. 

 

Conclusion

Dans un contexte où le fonctionnement réel des IA n’est pas parfaitement cerné et où les hallucinations restent imprévisibles, l’Intelligence Artificielle n’a pas vocation à être une entité exécutive. Lui confier de telles missions serait irresponsable dans le meilleur des cas, et catastrophiquement dangereux dans le pire des cas. Une considération majeure qu’il faut prendre en compte avant d’envisager toute responsabilisation de l’IA ou son implication dans les processus décisionnels et les interactions entre humains.

 

Quitter la version mobile