Le chatbot IA d’Alaska en échec : un exemple de défis technologiques

L’intégration de l’intelligence artificielle (IA) dans les services gouvernementaux n’est pas toujours une promenade de santé. L’exemple du projet Alaska Virtual Assistant (AVA), un chatbot IA conçu pour aider les résidents à naviguer dans le processus de succession après décès, met en lumière ces défis. Débuté il y a plus d’un an, ce qui était censé être une avancée rapide et simple s’est transformé en un projet laborieux marqué par des faux départs et des réponses inattendues.

Les origines du chatbot AVA

Illustration hero

Initialement conçu pour simplifier l’accès à la justice dans les procédures de succession, le chatbot AVA devait faciliter la navigation entre les formulaires et les procédures impliqués dans ce processus complexe. Cependant, ce projet, qui était prévu pour durer trois mois, s’est étendu bien au-delà des attentes initiales.

D’après Aubrie Souza, consultante chez le National Center for State Courts (NCSC) et une des personnes ayant travaillé sur AVA, l’évolution du projet a nécessité beaucoup de diligence pour obtenir un système fonctionnel. “Nous sommes maintenant largement au-delà d’un an et trois mois, mais cela est dû à la rigueur nécessaire pour le rendre parfait”, a-t-elle déclaré.

Cette longue période de développement souligne les défis auxquels sont confrontées les agences gouvernementales dans l’application des systèmes IA aux problèmes du monde réel où la vérité et la fiabilité sont essentielles. Stacey Marz, directrice administrative du système judiciaire d’Alaska et une des chefs de projet pour AVA, souligne cette importance : “Nous devons être 100% précis, et c’est vraiment difficile avec cette technologie.”

Les défis techniques

Le développement de ce système IA sur mesure a révélé les obstacles auxquels font face les agences gouvernementales en essayant d’utiliser l’IA pour une meilleure efficacité ou service. Parmi ces obstacles, la fiabilité et la confiance sont cruciales dans des contextes à fort enjeu.

L’un des défis majeurs rencontrés par le projet AVA a été les “hallucinations” du système IA, soit l’émission d’informations fausses ou exagérées avec une grande confiance. Souza et Tom Martin, avocat et professeur de droit qui travaille sur la conception des outils juridiques IA pour le projet AVA, ont dû faire face à ces problèmes. “Nous avons eu des problèmes de hallucinations, indépendamment du modèle utilisé, où le chatbot n’était pas censé utiliser quelque chose”, a déclaré Martin.

Personnalisation et fiabilité

Illustration tech

La personnalité d’un système IA est un élément clé à considérer dans sa conception. Comme l’explique Martin, différents modèles ont des personnalités distinctes qui peuvent être plus ou moins conformes aux règles. “Pour une application juridique, vous ne voulez pas ça. Vous voulez qu’il suive les règles mais soit intelligent et capable d’expliquer les choses en langage clair”, a-t-il ajouté.

L’équipe de développement a également travaillé à ajuster l’empathie du chatbot pour éviter d’accabler les utilisateurs qui peuvent être en pleine période de deuil. “Nous avons donc supprimé ces types de condoléances, car un robot IA n’a pas besoin d’en ajouter une”, a déclaré Souza.

Le contexte des services gouvernementaux

Ce projet d’AVA reflète les difficultés générales auxquelles sont confrontées les agences gouvernementales dans l’utilisation de l’IA pour améliorer leurs services. Selon un récent rapport Deloitte, moins de 6% des praticiens locaux prioritisaient l’IA comme outil de service.

Les perspectives d’intégration de l’IA

Illustration impact

L’intégration réussie de l’IA dans les systèmes gouvernementaux nécessitera une approche minutieuse et un suivi constant pour garantir la fiabilité et la précision des informations fournies. Dans le contexte québécois, des institutions comme Mila ou IVADO travaillent à développer des solutions IA qui peuvent potentiellement aider les agences gouvernementales à surmonter ces défis.

Avantages potentiels

L’IA a le potentiel de simplifier grandement l’accès aux services publics. Un chatbot bien conçu et fiable peut réduire la charge administrative, augmenter l’efficacité des services gouvernementaux et améliorer l’expérience utilisateur.

Défis futurs

Les défis restent cependant importants. La personnalisation du système IA pour respecter les règles juridiques et fournir des informations précises est un défi constant. De plus, la question de la responsabilité humaine dans le suivi de ces systèmes IA reste ouverte.

FAQ

Pourquoi l’IA a-t-elle tant de difficultés à fournir des réponses précises ?

L’IA, en particulier les modèles génératifs comme ceux utilisés pour les chatbots, peut produire des informations erronées lorsque ces dernières ne sont pas suffisamment contrôlées ou vérifiées. Les systèmes IA peuvent faire preuve d’une confiance excessive dans leurs propres réponses, même si celles-ci sont incorrectes. Par exemple, un chatbot peut fournir une interprétation juridique qui n’est pas conforme à la loi en vigueur du fait de limitations dans son entraînement ou des erreurs introduites par les données d’apprentissage.

Comment l’IA pourrait-elle aider les services gouvernementaux à long terme ?

À long terme, une intégration réussie de l’IA dans les services gouvernementaux pourrait améliorer l’accès aux informations et simplifier la navigation entre des procédures complexes. Par exemple, un chatbot pourrait aider les résidents à remplir correctement des formulaires administratifs ou fournir des réponses rapides à des questions fréquemment posées sur des services publics comme le logement social ou l’inscription scolaire. Cependant, cela nécessite un développement rigoureux pour assurer la fiabilité et la précision.

Quels sont les principaux défis liés à l’intégration de l’IA dans les services gouvernementaux ?

Les principales difficultés incluent la garantie d’une information précise, le contrôle des “hallucinations” du système IA (c’est-à-dire sa propension à produire des réponses inattendues ou incorrectes), et la question de la responsabilité humaine dans le suivi et la vérification des réponses fournies par l’IA. En outre, il est crucial de gérer les problèmes d’éthique et de confidentialité des données lorsque ces systèmes sont déployés.

Comment les institutions comme Mila ou IVADO peuvent-elles aider ?

Des institutions comme Mila et IVADO jouent un rôle essentiel dans le développement de solutions IA adaptées aux besoins spécifiques du secteur public. Ils fournissent une expertise en recherche académique, en formation des modèles IA et en éthique des technologies d’intelligence artificielle. En collaboration avec les agences gouvernementales, elles peuvent aider à créer des systèmes plus précieux et fiables qui répondent aux besoins spécifiques de chaque service public.

Quel rôle pourrait jouer l’IA dans la personnalisation des services pour les utilisateurs ?

L’IA peut permettre une personnalisation accrue des services en analysant les interactions précédentes d’un utilisateur avec le système. Par exemple, un chatbot pourrait reconnaître que certaines personnes préfèrent recevoir des informations par e-mail plutôt que de téléphone et adapter son interaction en conséquence.

Comment gérer la responsabilité humaine dans le suivi des systèmes IA ?

La gestion de la responsabilité humaine implique l’implémentation d’un système robuste de contrôle qualité pour vérifier les réponses fournies par l’IA. Cela peut inclure un processus de validation manuelle pour les décisions critiques ou une formation continue du personnel pour améliorer sa capacité à détecter et corriger les erreurs produites par l’AI.

Conclusion

Le projet AVA souligne les défis importants liés à l’intégration réussie de l’IA dans les services gouvernementaux. Bien que potentiellement très bénéfique, le développement d’un chatbot IA pour des services juridiques exige une attention minutieuse pour garantir la précision et la fiabilité des informations fournies. Dans un contexte québécois, des institutions comme Mila ou IVADO peuvent jouer un rôle crucial dans l’adaptation de ces technologies à nos besoins spécifiques.

L’intégration réussie de l’IA dans les services gouvernementaux dépendra largement de notre capacité à surmonter ces défis techniques et éthiques. À mesure que nous progressons, il sera essentiel de continuer à rechercher des solutions pour maximiser la précision et la fiabilité de ces systèmes IA tout en assurant une supervision humaine appropriée.

De plus, l’adoption d’une approche holistique qui intègre les meilleures pratiques en matière de gouvernance, de développement éthique et de collaboration entre les chercheurs en IA et les praticiens du secteur public sera cruciale pour réussir cette transition. Les leçons apprises lors du projet AVA peuvent servir d’orientation précieuse pour les futures initiatives d’IA dans les services gouvernementaux, aidant à éviter des écueils similaires et à maximiser l’impact positif de ces technologies sur la société.