haldar32_iSTock Getty ImagesPlus_ai legal iStock Getty Images Plus

¿Puede la IA aprender a seguir la ley?

CAMBRIDGE – Si el trabajo del experto informático británico Alan Turing sobre las “máquinas pensantes” fuera la precuela de lo que hoy conocemos como inteligencia artificial, el éxito de ventas del fallecido Daniel Kahneman Pensar rápido, pensar despacio sería la secuela, por sus observaciones sobre la manera en que pensamos. Entendernos a “nosotros mismos” será crucial para regularlas a “ellas”.

La iniciativa rápidamente ha pasado a estar entre las prioridades de las autoridades mundiales. El 21 de marzo, la Organización de las Naciones Unidades adoptó por unanimidad una resolución histórica (propuesta por los EE.UU.) que llama a la comunidad internacional a “gobernar esta tecnología en vez de permitir que nos gobierne”.  Y eso ocurrió poco después de la Ley de IA de la UE y la Declaración Bletchley, firmada por más de 20 países (la mayoría, economías avanzadas) en noviembre pasado. Más aún, en la actualidad existen esfuerzos a nivel país, como en EE.UU., donde el Presidente Joe Biden ha emitido una orden ejecutiva sobre “el desarrollo y uso seguro, fiable y digno” de la IA.

Estas iniciativas son una respuesta a la carrera acelerada de plataformas de IA que comenzó con el lanzamiento público de ChatGPT por parte de OpenAI a fines de 2022. La preocupación fundamental es el cada vez más conocido “problema de alineación”: el hecho de que los objetivos de la IA y los medios que escoja para alcanzarlos puedan no someterse a los de los seres humanos, o incluso ser incompatibles con ellos. Además, las nuevas herramientas de IA tienen el potencial de ser utilizadas por personas malintencionadas (desde estafadores a propagandistas), para profundizar y ampliar formas preexistentes de discriminación y sesgo, violar la privacidad y desplazar trabajadores de sus empleos.

https://prosyn.org/H1I1hAGes