Necrológicas

La advertencia de Darwin

Por Abraham Santibáñez Sábado 28 de Enero del 2023

Compartir esta noticia
105
Visitas

La Inteligencia Artificial (IA, AI en inglés) nos ronda hace tiempo. Pero sólo en la versión 2023 del Congreso Futuro se asomó a la puerta de los chilenos comunes y corrientes. En la inauguración del evento, la periodista Paloma Avila entrevistó “en vivo y en directo” a Charles Darwin quien falleció hace 140 años.

El científico británico, que pasó entre 1832 y 1835 por nuestras costas, fue recreado por la empresa Merlín Research. Más allá de la impresionantemente realista reconstrucción del cuerpo, lo fascinante del experimento fue su capacidad de responder toda clase de preguntas, incluso personales.

La clave es un algoritmo que “simula” su conciencia. Para alimentarlo, el equipo de expertos utilizó todo lo que Darwin escribió sobre sus estudios del proceso evolutivo de selección natural y mucho más. 

No es la última hazaña de la IA. También en estos días, la revista científica Nature Astronomy publicó un editorial escrito por “ChatGPT”, un robot lanzado por OpenAI el 30 de noviembre de 2022. En palabras de la misma publicación, “le pedimos que ‘escribiera un editorial de 500 palabras sobre los beneficios y las desventajas de la IA para la investigación astronómica’ y lo hizo en cuestion de segundos”.

Para lograrlo requiere, naturalmente, que el robot (”bot” en el lenguaje de los expertos) sea alimentado con toda la información disponible. Esta limitación explica que por ahora la aspiración de que los bots escriban en los periódicos no se pueda satisfacer sin ayuda de un ser humano.

Pero, de ser posible, es posible.

Así se comprende la creciente preocupación, en Estados Unidos, la Unión Europea y China, centrada en establecer las fronteras de la Inteligencia Artificial. Es el temor de la vieja historia del aprendiz de hechicero, cuyos poderes se desbordan. O lo que ocurre en “2001, Odisea del Espacio” con HAL, el robot que actúa sin control. En el caso de la IA, las preguntas fundamentales son desde el punto de vista ético. ¿Quién controla sus efectos?  ¿Cuáles son sus límites?

La Unión Europea trabaja desde 2018 en el desarrollo de una norma comunitaria. En 2021 propuso la primera regulación a nivel mundial que debe entrar en vigor en la primera mitad de 2024.  Mediante su reglamentación se pretende crear un espacio seguro para la innovación definiendo varios niveles de protección del interés público, la seguridad y la defensa de los derechos fundamentales. Según un reportaje de la cadena SER, de España, “los robots conversacionales serán definidos como ‘riesgo limitado’. Las empresas que los usen deberán ser transparentes respecto de los fines que tiene toda recolección de datos. Además, las compañías que usen estos ‘bots’ deben garantizar que el ciudadano es consciente de que está hablando con una máquina antes de tomar cualquier decisión”.

Es evidente que en ese caso, la máquina será mejor que lo que ocurre con los “call centers”, cuya regulación es difusa… si es que existe.

Estados Unidos ha establecido diez principios para establecer sistemas eficaces y seguros de IA. Previamente deberán someterse y no deberán usar datos que no sean necesarios para los fines que se pretenden. Debe evitarse también que los algoritmos generen sesgos de raza, color, origen étnico, religión o edad, entre otros.

En este tema hay exceso de optimismo por una parte… y comprensibles temores por la otra. Darwin está bien. Tiene mucho que decir. ¿Y el resto?.