“Mi mayor miedo es que causemos daño significativo al mundo”: ejecutivo detrás de ChatGPT sobre inteligencia artificial.
El director ejecutivo de OpenAI, la compañía detrás del famoso ChatGPT, expuso sus mayores preocupaciones ante la proliferación de la inteligencia artificial e hizo un llamado al gobierno de EEUU a adoptar regulaciones durante una audiencia en el Congreso.
WASHINGTON — Expertos y ejecutivos de empresas de tecnología llegaron el martes hasta el Congreso de EEUU para testificar sobre las posibles regulaciones a las que debería estar sometida la inteligencia artificial ante los riesgos y beneficios que presenta para la humanidad.
Pérdida de trabajos, invasión a la privacidad, manipulación del comportamiento humano y las opiniones, así como la posible injerencia electoral, fueron los asuntos en el centro de los cuestionamientos de senadores estadounidenses en una audiencia en la que participó Sam Altman, director ejecutivo de OpenAI, la compañía detrás del modelo lenguaje conocido como ChatGPT.
“Mis peores temores son que nosotros -el sector, la tecnología, la industria- casemos un daño significativo al mundo… creo que si esta tecnología sale mal, puede ser muy negativo”, dijo Altman a los senadores.
Altman reconoció creer que “la intervención regulatoria de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más potentes”.
Entre sus sugerencias a los congresistas citó el formar una nueva agencia regulatoria que autorice -a través de licencias- el desarrollo y lanzamiento de modelos de inteligencia artificial si superan un umbral de capacidades. Segundo, crear un conjunto de estándares de seguridad, y tercero, requerir auditorías independientes para que expertos determinen si los modelos cumplen con los estándares de seguridad.
Christina Montgomery, directora de privacidad de IBM, la empresa tecnológica multinacional, aseguró que este periodo de “atención pública” a la inteligencia artificial es la ventana necesaria para que el gobierno tome acción con regulaciones.
“La IA es solo una herramienta y las herramientas pueden tener diferentes propósitos. Con ese fin, IBM insta al Congreso a adoptar un enfoque de regulación de precisión para la IA. Esto significa establecer reglas para regir el despliegue de IA y casos de uso específicos, sin regular la tecnología en sí”, dijo Montgomery.
La propuesta de la experta en ética tecnológica, a diferencia de Altman, implica que se apliquen regulaciones más estrictas en casos de mayor riesgo para las personas y la sociedad, no en el uso generalizado. Además, invitó a definir “claramente” los riesgos en su uso y revelar a los usuarios cuando estén interactuando con inteligencia artificial.´
“El Congreso puede mitigar los riesgos potenciales de la IA sin obstaculizar la innovación”, agregó Montgomery.
Pese a la defensa de Altman a las “evaluaciones exhaustivas” que aseguró realiza OpenAI previo al lanzamiento de productos como ChatGPT4, Gary Marcus, profesor emérito de psicología y neurociencia en la Universidad de Nueva York, aseguró que “los sistemas actuales no son transparentes”.
“No protegen adecuadamente nuestra privacidad y continúan perpetuando el sesgo e incluso sus creadores no entienden completamente cómo funcionan (…) El plan preferido de las grandes empresas de tecnología se reduce a ‘confía en nosotros’, pero ¿por qué deberíamos hacerlo? Las sumas de dinero en juego son alucinantes”, sentenció Marcus.
El profesor, sin embargo, acordó en que es necesario que el gobierno se involucre en las regulaciones, mientras se integra el insumo de científicos independientes para “evaluar soluciones”.
Marcus agregó entre sus sugerencias la financiación orientada a la investigación de seguridad de la inteligencia artificial como un recurso “ético y honesto” de transparencia.