La presente es una traducción automática generada por DeepL Translate. La traducción automática es una traducción literal del contenido original a otro idioma. Está totalmente automatizada y no implica ninguna intervención humana. La calidad y la fidelidad de la traducción automática pueden variar considerablemente de un texto a otro y entre diferentes pares de idiomas. La UIT no garantiza la fidelidad de las traducciones y no asume ninguna responsabilidad en caso de error. Si tiene alguna duda acerca de la exactitud de la información presentada en las versiones traducidas de nuestras páginas web, remítase al texto oficial en inglés. Puede que algunos contenidos (como imágenes, vídeos, archivos, etc.) no sean traducidos debido a las limitaciones técnicas del sistema.

La gobernanza responsable de la IA y los desafíos de la IA de propósito general


ey

Sesión 262

lunes, 13 marzo 2023 10:00–10:45 (UTC+01:00) Inspire Stage, CICG, Ground Floor Charlas sobre el espacio abierto

Cómo aplicar la gestión de riesgos de IA cuando el contexto de la aplicación está mínimamente definido

Sobre la base de nuestro panel del taller de 2022 que se centró en el aseguramiento y la evaluación de la conformidad de productos y servicios digitales emergentes, como la IA, continuaremos con el tema de discusión sobre consideraciones prácticas para regulaciones, estándares y pautas de gobierno corporativo, pero esta vez nos centraremos en los desafíos específicos que plantean los grandes modelos generativos de IA (por ejemplo, Chat GPT, DALL-E 2, Synthesia, Stable Diffusion). Específicamente, discutiremos cómo encajar estos sistemas dentro de los marcos de gestión de riesgos de IA a la luz de la falta de especificidad del caso de uso en el modelo central junto con la falta de control sobre ese modelo por parte de quienes especifican el caso de uso. A la luz de estos desafíos, preguntaremos cómo se pueden adaptar los esfuerzos existentes hacia la gobernanza responsable de la IA para incorporar las demandas de los grandes modelos generativos de IA.


Ansgar Roald Koene
Ansgar Roald Koene Líder global de ética y regulación de IA Bélgica Moderador

El Dr. Ansgar Koene es líder global de ética y regulación de la IA en EY (Ernst & Young), donde dirige el equipo de políticas públicas relacionadas con la IA y contribuye al trabajo sobre la gobernanza de la IA y el marco de IA de confianza de EY. Como parte de este trabajo, representa a EY en el Grupo de Trabajo de la OCDE sobre IA y Gobernanza y Negocios en el Comité de Política Económica Digital de la OCDE (BIAC CDEP).

Ansgar presidió el grupo de trabajo IEEE P7003 Standard for Algorithmic Bias Considerations y es co-coordinador del trabajo del comité CEN-CENELEC JTC21 "AI" sobre evaluación de conformidad de IA. Es fideicomisario de la fundación 5Rights para los derechos de los jóvenes en línea y asesora sobre inteligencia artificial y ética de datos para la ONG panafricana AfroLeadership y la empresa emergente de movilidad inteligente Hayden AI .

Ansgar tiene antecedentes de investigación multidisciplinarios, habiendo trabajado y publicado sobre temas que van desde la política y la gobernanza de los sistemas algorítmicos (IA), la privacidad de los datos, la ética de la IA, los estándares de la IA, la robótica bioinspirada, la IA y la neurociencia computacional hasta el comportamiento humano experimental. /Estudios de percepción. Tiene una Maestría en Ingeniería Eléctrica y un Doctorado en Neurociencia Computacional.


Ahmed Imran
Ahmed Imrán Profesor asistente Universidad de Canberra, Australia

El Dr. Ahmed Imran es investigador de Sistemas de Información en la Universidad de Canberra y dirige el grupo de investigación interdisciplinario de Desigualdad digital y cambio social (Rc-disc). Los intereses de investigación de Ahmed incluyen el uso estratégico de TI, gobierno electrónico, ICT4D y el impacto sociocultural de las TIC y la transformación organizacional impactada por las TIC. El Dr. Imran ha acumulado más de una década de experiencia académica en dos de las principales universidades de Australia (ANU y UNSW) antes de mudarse a la UC y ha publicado en revistas de primer nivel. Su vasta experiencia como gerente de TI, así como su trabajo en países en desarrollo, se volvieron invaluables para la investigación, y para comprender y brindar una visión rica del contexto sociocultural a través de múltiples lentes, lo que resultó en oportunidades de investigación interdisciplinaria. La investigación del Dr. Imran ha demostrado traer aplicaciones del mundo real a la mesa, algo que consolidó su importancia y relevancia a los ojos de la comunidad investigadora.


Temas
Aprendizaje automático Ciberseguridad Economía digital Ética Inteligencia Artificial
Líneas de acción de la CMSI
  • LA C5 logo C5. Crear confianza y seguridad en la utilización de las TIC
  • LA C7 E–BUS logo C7. Aplicaciones de las TIC: ventajas en todos los aspectos de la vida — Negocios electrónicos
  • LA C10 logo C10. Dimensiones éticas de la sociedad de la información
Objetivos de desarrollo sostenible
  • Objetivo 8 logo Objetivo 8: Promover el crecimiento económico sostenido, inclusivo y sostenible, el empleo pleno y productivo y el trabajo decente para todos
  • Objetivo 11 logo Objetivo 11: Conseguir que las ciudades y los asentamientos humanos sean inclusivos, seguros, resilientes y sostenibles
  • Objetivo 16 logo Objetivo 16: Promover sociedades pacíficas e inclusivas para el desarrollo sostenible, facilitar el acceso a la justicia para todos y crear instituciones eficaces, responsables e inclusivas a todos los niveles
Enlaces

This session builds on the outcomes of out panel last year on "Assurance and conformity assessment of digital products and services" (session 410) and our report on AI Risk Assessment methodologies.