Tres expertos de Segovia opinan sobre la IA

Nacho Sáez
-

Sinuhé Arroyo, Aníbal Bregón y Dae-Jin Lee hablan sobre sus peligros, la necesidad de una regulación y la moratoria en la investigación que han solicitado científicos.

Imágenes generadas con la inteligencia artificial de Adobe Firefly al buscar “retrato lateral de hombre español” y “retrato lateral de robot”.

La inteligencia artificial puede «ayudar a lograr nuevos descubrimientos y a abordar algunos de los mayores desafíos de la humanidad, como el cambio climático y la cura del cáncer», según señaló el pasado martes Samuel Altman, el cofundador de OpenAI, creadora de ChatGPT, la herramienta que ha causado un terremoto mundial y que ha provocado que científicos expertos se hayan apresurado a advertir de los peligros de la inteligencia artificial generativa. El propio Altman lo ha hecho: «Mi peor miedo es que esta tecnología salga mal. Y si sale mal, puede salir muy mal».

El Día de Segovia ha consultado a tres expertos sobre la necesidad de una regulación y la moratoria de seis meses en su desarrollo que han solicitado un grupo de cientificos. «No va a servir para nada, no se le puede poner puertas al campo. Si miramos al entorno geopolítico vemos que hay una guerra encubierta entre América y China. Si el mundo occidental parara, daría una ventaja competitiva a China. Quizás sea más una llamada de atención en el sentido de que hemos hecho algo grande. Esto no es una evolución, es una revolución», reflexiona Sinuhé Arroyo, fundador, director ejecutivo y CEO de Taiger, una empresa con sede en Singapur especializada en la aplicación de inteligencia artificial en el sector financiero, legal, de seguros y de la Administración pública.

Arroyo está convencido de que la inteligencia artificial generativa va a marcar un antes y un después en la historia de la humanidad. «Hay un artículo de Bill Gates en el que dice que hay dos momentos en su vida, donde realmente siente que la tecnología pega un salto brutal. Una es cuando ve la Internet o el graphical user interface, mejor dicho; y cuando ve la demo de OpenAI de ChatGPT. Es indiscutible que esto va a cambiar la forma en que hacemos cualquier actividad cotidiana. Desde nuestro trabajo hasta nuestras vacaciones», señala.

IA, revolución de futuro inciertoIA, revolución de futuro incierto

ChatGPT es un prototipo de un gran modelo de lenguaje capaz de ofrecer respuestas detalladas y articuladas, aunque se ha criticado su precisión fáctica. Por ejemplo, puede escribir un poema con el tipo de rimas y temática que le pida el usuario. También se le puede solicitar un mensaje en tono informal o formal que responda a otro mensaje para no tener que pensar en qué redactar. Esta herramienta constituye un paso adelante en la automatización de nuevas tareas. «Por ejemplo, el mundo de los asistentes virtuales -que hasta ahora no han sido muy certeros- va a cambiar de forma brutal. Hay otro aspecto que es muy llamativo y en el que se están haciendo unas inversiones muy importantes. Coger todo lo que se haya escrito, fotografiado y grabado de Biden y hacer un modelo que fuera como si estuvieras hablando con Biden. Es como su hubiéramos trascendido, como si ya pudiéramos ser inmortales algunos. Estamos automatizando trabajos pero desde un punto de vista positivo. Esto te permite liberar horas del día para hacer que otras cosas de más valor añadido.  Ahora nadie se va a moler el café antes de tomárselo. Hemos evolucionado», subraya el fundador de Taiger, que no ve próximo un mundo dominado por las máquinas: «Todo eso me parece que está muy bien para vender libros. [La inteligencia artificial] es capaz de generar texto en base a un modelo estadístico brutal con billones de parámetros, pero de ahí a que piense... No tiene capacidad de raciocinio».

El Parlamento Europeo acaba de poner las bases para regular la inteligencia artificial. «La inteligencia artificial es una cosa que lleva existiendo desde hace más de 60 años . La utilizamos día a día cada vez que navegamos por Internet y nuestro teléfono móvil está plagado de tecnología de inteligencia artificial», recuerda Aníbal Bregón, profesor de la asignatura Sistemas Inteligencias en la Escuela de Informática de Segovia de la Universidad de Valladolid. «El problema es que la inteligencia artificial generativa es capaz de generar texto como si lo hiciera un humano y puede ser verdadero o falso. Al principio de la guerra de Ucrania se hizo viral un vídeo generado con una herramienta de inteligencia artificial en el que se hablaba de la rendición. Ese es el principal problema. Puede influenciar la opinión y puede inundar con desinformación los canales de comunicación que tenemos hoy en día e influir en resultados electorales».

Por eso, el cofundador de OpenAI, Samuel Altman, ha pedido actuar ya. «Es esencial regular la inteligencia artificial y que esas normas garanticen que el público acceda a sus muchos beneficios», señaló el pasado 16 de mayo en el Congreso de EE UU. «Todas estas cuestiones llevan su tiempo, pero se está discutiendo dentro de la Comisión Europea regular el uso de la inteligencia artificial en la carrera armamentística», indica Bregón sobre lo que sería una analogía de lo que se ha hecho en el pasado para controlar las armas nucleares. «Me parece interesante [la moratoria de seis meses en el desarrollo de la inteligencia artificial que han planteado científicos] porque las cosas van tan rápido que a veces no somos somos capaces de de analizar las consecuencias de lo que estamos haciendo», esgrime Dae-Jin Lee, profesor en IE University School of Science and Technology donde imparte asignaturas relacionadas con análisis de datos, modelización estadística y computación.

A Lee no le preocupa tanto la automatización de puestos de trabajo («Surgirán otros nuevos») frente a la batalla que se libra en el terreno de la geopolítica. «China, Estados Unidos y la India son los grandes agentes. Potencias que tienen sus intereses y estrategias. Es cuestión de mentalidad y de historia. Estados Unidos ha sido liberal en el ámbito del desarrollo industrial y empresarial. Primero genera emprendedores y luego regula, mientras que Europa regula primero. No sabría decir qué es mejor o peor. En China hay un control muy exhaustivo, pero el afán por ser potencia les lleva a la tecnología. Y los derechos de las personas se consideran de manera distinta», concluye este profesor.