Los líderes de la industria de la IA crean un foro para regular los modelos de aprendizaje automático

Reuters

Publicado 26.07.2023 12:32

26 jul (Reuters) - OpenAI, Microsoft (NASDAQ:MSFT) , Google, de Alphabet (NASDAQ:GOOGL) , y Anthropic están poniendo en marcha un foro para regular el desarrollo de grandes modelos de aprendizaje automático, dijeron el miércoles los líderes del sector de la inteligencia artificial (IA).

El grupo se centrará en garantizar el desarrollo seguro y responsable de lo que se denomina "modelos fronterizos de IA", que superan las capacidades presentes en los modelos existentes más avanzados.

Se trata de modelos básicos muy competentes que podrían tener capacidades peligrosas suficientes para plantear graves riesgos para la seguridad pública.

Los modelos generativos de IA, como el que está detrás de chatbots como ChatGPT, extrapolan grandes cantidades de datos a gran velocidad para compartir respuestas en forma de prosa, poesía e imágenes.

Aunque los casos de uso de estos modelos son abundantes, organismos gubernamentales como la Unión Europea y líderes del sector como Sam Altman, consejero delegado de OpenAI, han afirmado que serían necesarias medidas de protección adecuadas para atajar el riesgo que plantea la IA.

El organismo del sector, Frontier Model Forum, trabajará para hacer avanzar la investigación sobre la seguridad de la IA, identificar las mejores prácticas para el despliegue de modelos de IA fronterizos y colaborar con reguladores, académicos y empresas.

Pero no ejercerá presión sobre los Gobiernos, según un portavoz de OpenAI.