Il s'agit d'une traduction automatique générée par DeepL Traduction. La traduction automatique est une traduction littérale du contenu d'origine dans une autre langue. Elle est entièrement automatisée et ne fait appel à aucune intervention humaine. La qualité et la fidélité de la traduction automatique peuvent varier considérablement d'un texte à l'autre et entre différentes paires de langues. L'UIT ne garantit pas l'exactitude et décline toute responsabilité en cas d'erreurs éventuelles. En cas de doutes quant à l'exactitude des informations présentées dans les versions traduites de nos pages web, veuillez vous reporter au texte officiel en anglais. Certains contenus (tels que des images, des vidéos, des fichiers, etc.) peuvent ne pas être traduits en raison des limitations techniques du système.

Gouvernance responsable de l'IA et défis de l'IA à usage général


EY

Session 262

lundi, 13 mars 2023 10:00–10:45 (UTC+01:00) Inspire Stage, CICG, Ground Floor Entretiens en espace ouvert

Comment appliquer la gestion des risques de l'IA lorsque le contexte de l'application est défini de manière minimale

En nous appuyant sur notre panel d'ateliers de 2022 qui s'est concentré sur l'assurance et l'évaluation de la conformité des produits et services numériques émergents, tels que l'IA, nous poursuivrons le thème de la discussion autour de considérations pratiques pour les réglementations, les normes et les directives de gouvernance d'entreprise, mais nous concentrerons cette fois sur les défis spécifiques posés par les grands modèles d'IA générative (par exemple Chat GPT, DALL-E 2, Synthesia, Stable Diffusion). Plus précisément, nous discuterons de la manière d'intégrer ces systèmes dans les cadres de gestion des risques de l'IA à la lumière du manque de spécificité des cas d'utilisation dans le modèle de base, associé à un manque de contrôle sur ce modèle par ceux qui spécifient le cas d'utilisation. À la lumière de ces défis, nous nous demanderons comment les efforts existants en faveur d'une gouvernance responsable de l'IA pourraient être adaptés pour intégrer les exigences des grands modèles d'IA générative.


Ansgar Roald Koene
Ansgar-Roald Koene Leader mondial de l'éthique et de la réglementation en matière d'IA Belgique Modérateur

Le Dr Ansgar Koene est Global AI Ethics and Regulatory Leader chez EY (Ernst & Young) où il dirige l'équipe de politique publique liée à l'IA et contribue aux travaux sur la gouvernance de l'IA et le cadre Trusted AI d'EY. Dans le cadre de ce travail, il représente EY au sein du Groupe de travail de l'OCDE sur l'IA et la gouvernance et le Comité des entreprises de l'OCDE sur la politique économique numérique (BIAC CDEP).

Ansgar a présidé le groupe de travail IEEE P7003 Standard for Algorithmic Bias Considerations et est co-organisateur des travaux du comité CEN-CENELEC JTC21 "AI" sur l'évaluation de la conformité de l'IA. Il est administrateur de la fondation 5Rights pour les droits des jeunes en ligne et conseille sur l'IA et l'éthique des données pour l'ONG panafricaine AfroLeadership et la start-up de mobilité intelligente Hayden AI .

Ansgar a une formation de recherche multidisciplinaire, ayant travaillé et publié sur des sujets allant de la politique et de la gouvernance des systèmes algorithmiques (IA), de la confidentialité des données, de l'éthique de l'IA, des normes de l'IA, de la robotique bio-inspirée, de l'IA et des neurosciences computationnelles au comportement humain expérimental. /Études de perception. Il est titulaire d'une maîtrise en génie électrique et d'un doctorat en neurosciences computationnelles.


Ahmed Imran
Ahmed Imran Maître assistant Université de Canberra, Australie

Le Dr Ahmed Imran est chercheur en systèmes d'information à l'Université de Canberra et dirige le groupe de recherche interdisciplinaire sur l'inégalité numérique et le changement social (Rc-disc). Les intérêts de recherche d'Ahmed incluent l'utilisation stratégique de l'informatique, l'e-gouvernement, l'ICT4D et l'impact socioculturel des TIC et la transformation organisationnelle impactée par les TIC. Le Dr Imran a accumulé plus d'une décennie d'expérience universitaire dans deux des principales universités australiennes (ANU et UNSW) avant de rejoindre l'UC et a publié dans des revues de premier plan. Sa vaste expérience en tant que responsable informatique ainsi que son travail dans les pays en développement sont devenus inestimables pour la recherche, ainsi que pour comprendre et fournir un aperçu riche du contexte socioculturel à travers de multiples lentilles, ce qui a donné lieu à des opportunités de recherche interdisciplinaire. La recherche du Dr Imran s'est avérée apporter des applications dans le monde réel, ce qui a renforcé son importance et sa pertinence aux yeux de la communauté des chercheurs.


Sujets
Apprentissage automatique Cybersécurité Économie numérique Éthique Intelligence artificielle
Lignes d'action du SMSI
  • GO C5 logo C5. Etablir la confiance et la sécurité dans l'utilisation des TIC
  • GO C7 E–BUS logo C7. Les applications TIC et leur apport dans tous les domaines — Commerce électronique
  • GO C10 logo C10. Dimensions éthiques de la société de l'information
Objectifs de développement durable
  • Objectif 8 logo Objectif 8: Promouvoir croissance économique soutenue, plein emploi productif et travail décent pour tous
  • Objectif 11 logo Objectif 11: Faire en sorte que les villes et les établissements humains soient ouverts à tous, sûrs, résilients et durables
  • Objectif 16 logo Objectif 16: Promouvoir l’avènement de sociétés pacifiques, l’accès de tous à la justice et des institutions efficaces
Liens

This session builds on the outcomes of out panel last year on "Assurance and conformity assessment of digital products and services" (session 410) and our report on AI Risk Assessment methodologies.