Aquí se explica cómo gobernar la explosión de la IA. Conversación con el prof. lapenta

Aquí se explica cómo gobernar la explosión de la IA. Conversación con el prof. lapenta
Aquí se explica cómo gobernar la explosión de la IA. Conversación con el prof. lapenta

Protección de datos (que es protección de los procesos democráticos), reducción de las brechas de desarrollo y una agencia internacional: el profesor Lapenta (John Cabot) piensa cómo gobernar la explosión de la IA para gestionar el riesgo y explotar su enorme potencial transformador

19/05/2024

“Es como si estuviéramos en medio de una explosión”: francesco lapenta Y director fundador del Instituto de Estudios de Futuro e Innovación de la Universidad John Cabot de Roma, y ​​explica así la evolución de la inteligencia artificial a la que estamos asistiendo. “Y sin embargo – continúa en una conversación con Formiche.net – en este momento es como si todo se moviera a cámara lenta, así que todavía imaginamos que podemos controlar los efectos de esta explosión, pero tarde o temprano las cosas se moverán a velocidad real, y en ese momento nos daremos cuenta de que la explosión ya ha ocurrido”.

Y uno de los campos en los que la explosión podría hacer sentir más su efecto es el de la desinformación, que lleva años erosionando los sistemas democráticos, y que con la IA generativa podría recibir un impulso: en eficacia y eficiencia, en difusión y realismo. Un tema que se debatirá el lunes 20 de mayo, en el evento internacional coorganizado por el Instituto Lapenta, el Instituto Guarini de John Cabot y el Centro de Estudios Americanos.

El riesgo es que ya no seamos capaces de controlar los efectos del ímpetu con el que se está propagando la IA. Y es por eso que observamos un gran interés por parte de los gobiernos, ante todo, que transmiten a los medios de comunicación. convencional esta necesidad. Para el profesor se ha creado un encaje perfecto entre mayor comprensión de la teoría de la complejidad (también resultado del efecto mariposa visto con la pandemia), el valor de la gestión de riesgos, las oportunidades y los desafíos digitales. “Todo esto ha llevado a una mayor conciencia sobre el tema, a que los expertos finalmente hayan conquistado su papel de expertos y al regreso del estudio de la filosofía, que encuentra una aplicación en la tecnología”. Siguen las relaciones internacionales.

Un ejemplo de ello es la reciente reunión entre Estados Unidos y China, diseñada para buscar una base de diálogo y discusión para llegar a regulaciones o términos de uso más o menos compartidos (¿será posible alguna vez?). Siguiendo con los ejemplos, el prefecto Bruno Frattasi, director de la Autoridad Nacional de Ciberseguridad, fue muy claro cuando anteayer, presidiendo el Grupo de Trabajo del G7 sobre Ciberseguridad, dijo: “La inteligencia artificial es el tema central de la presidencia italiana de el G7″.

De hecho, incluso el año pasado la IA ocupaba un lugar destacado entre las prioridades del grupo, hasta el punto de que el G7 japonés emitió la llamada “Declaración de Hiroshima”, un código de conducta compartido por las siete mayores economías occidentalizadas. Hay un compromiso, en cierto modo casi neurótico, que expertos como Lapenta, que trabajan en el tema desde hace años, observan con atención y satisfacción: “Ya lo notamos hace años, fue en 2006 cuando empezamos a comprender que la IA estaba llegando, faltaban las aplicaciones pero era obvio que sería sólo cuestión de unos años, de esperar el desarrollo tecnológico adecuado”.

Cuando hablamos de inteligencia artificial, muy a menudo nos vemos llevados a resaltar los riesgos con miedo, y la desinformación encabeza la lista (pero, por otro lado, es fisiológicamente humano que las innovaciones impliquen algún tipo de miedo), al igual que las oportunidades. . Y por eso parece necesario desarrollar un marco de conducta, de cogestión, a nivel internacional para ir aún más lejos. ¿Qué hacer y cómo? “En primer lugar tenemos que pensar de forma sistémica”, responde el profesor John Cabot.

“La bomba ha estallado y empezamos a ver las reacciones: los que están mejor entrenados son más capaces de gestionar la situación y, de hecho, de alguna manera ya han empezado a Protégete a ti mismo. Por ejemplo, Europa ha creado una sociedad basada en la gestión de riesgos a lo largo de los años y, de hecho, ha reaccionado de la mejor manera hasta ahora ante la explosión de la IA; primeros principios, primeras reglas, primera Ley de IA”. Los ministros de Asuntos Exteriores reunidos en Estrasburgo para el Consejo de Europa adoptaron el viernes el primer tratado internacional jurídicamente vinculante, que se encargará de garantizar el respeto de los derechos humanos, el estado de derecho y la democracia en el uso de sistemas basados ​​en inteligencia artificial.

Por eso la UE respondió rápidamente (y la rapidez también forma parte de la eficacia), pero no existe una gestión uniforme. “Exactamente, todo lo contrario: hay sociedades que están y estarán superadas, como las que están en desarrollo, porque se convertirán en banco de pruebas de todas las aplicaciones. Los Estados Unidos se encuentran entonces en una posición particular: quieren desarrollarse sin reglas, porque saben que esto crea ventajas, pero también saben que la bomba ha estallado y, por tanto, son conscientes de que deben protegerse. La estructura estadounidense ha comprendido muy bien el riesgo y actúa en dos pasos: quiere dejar dominar su propio ecosistema innovador y, al mismo tiempo, piensa en una legislación para evitar ser aplastado”. ¿Y el otro gran actor del momento, China? “En China, el riesgo y la protección contra riesgos son el problema y, de hecho, se están quedando atrás. Desde que se lanzó la aplicación ChatGpt, China se quedó atrás: fueron detenidos en la salida mientras el velocista estadounidense ya corría”.

Para Lapenta, esto muestra la gran diferencia entre el sistema de innovación estadounidense y el chino. “Beijing se encuentra en la fase imitativa y se está acercando a ella, aunque todavía está lejos. No olvidemos, sin embargo, que innovar significa llevar algo a territorio inexplorado, y esto no está sucediendo en China, porque el sistema está demasiado ligado al Estado. Mientras que el americano es un potente modelo de innovación, a nivel cognitivo y psicológico grupal. Cuando el sistema estadounidense decide que el sector de innovación es ese, por ejemplo la IA, se crea una red financiera y de start-ups, así como un interés federal que trabaja en eso y produce un desplazamiento efectivo hacia esos territorios inexplorados”.

En medio de las competiciones, está claro que las ventajas posibles si la inteligencia artificial se orienta de la manera correcta son enormes. “Por ejemplo, puede ser un enorme factores clave para la eliminación de brecha entre países desarrollados y subdesarrollados, porque nunca en otras revoluciones industriales las infraestructuras han sido tan baratas como las de apoyo a la IA, y por tanto eso significa que nadie puede, ni debe, quedarse atrás”, explica Lapenta. Esto, según su razonamiento, también podría producir la descentralización de la innovación, y la IA podría ser precisamente eso. conductoresproduciendo diferentes procesos de innovación dependiendo de la diversidad de contextos sociales, culturales y económicos (porque claramente una cosa es innovar en California y otra innovar en Kenia).

“Los procesos de innovación local, aquellos que verdaderamente son súper sustentables y funcionan en tiempo y forma, son uno de los grandes campos de aplicación de la IA. Otro es el mundo de la educación, que está en la base: los tutores de IA pueden permitir un gran acceso a las trayectorias educativas. Y sabemos que la educación es el centro de todo, la gestión del conocimiento es el desafío del futuro.”

Más concretamente, para gestionar la caer de la explosión, necesitamos crear rápidamente un organismo global que gobierne los riesgos, oportunidades y desafíos de la IA; el modelo podría ser la Agencia Internacional de Energía Atómica, OIEA, una agencia intergubernamental autónoma que ha guiado el desarrollo de la energía nuclear desde 1957 en nombre de de las Naciones Unidas. “Los riesgos y el potencial deben distribuirse equitativamente. Necesitamos reglas y leyes compartidas, y deben ser multilaterales”.

“Además – continúa el profesor – se debe establecer una relación justa con los datos: es fundamental que sean abiertos, superando la tendencia a mantener cerrados los datos más importantes, porque esto es lo que crea la verdadera brecha: el acceso a la calidad. . Por lo tanto, los datos científicos, médicos, etc. deben ser transparentes y compartidos. También porque muy a menudo se gasta mucho en datos que se utilizan una vez y luego quedan apartados y no accesibles: un ejemplo es el del sector médico, donde el 80% se utiliza sólo para cargas específicas. Poder reutilizarlos posteriormente es un proceso de sostenibilidad. la pLa protección de datos es la protección de los procesos democráticos”.

NEXT “Aún no hay autopsia, existe el riesgo de que la verdad desaparezca”