Los responsables de ChatGPT, OpenAI, están creando un nuevo equipo de investigadores dedicado a desarrollar tecnologías que ayuden a controlar los sistemas de inteligencia artificial (IA) que superan las capacidades humanas.
No es nueva esta preocupación por la inteligencia artificial, ya que hace semanas varios expertos alertaban deun "riesgo de extinción" comparable al de las pandemias o la guerra nuclear. Así lo trasladaron en una carta abierta un grupo de más de 300 expertos e investigadores de la industria, entre los que se encontraban el director ejecutivo de Google DeepMind, Demis Hassabis; Dario Amodei, director ejecutivo de Anthropic, y el director ejecutivo de OpenAI, Sam Altman, entre otros.
Por eso, la compañía responsable del modelo de lenguaje GPT y el 'chatbot' ChatGPT espera atajar el problema del control de la IA en los próximos cuatro años, para lo que está preparando un equipo dedicado a ello.
En concreto, y como ha informado en su blog oficial, este nuevo equipo estará liderado por el cofundador de OpenAI y responsable científico, Ilya Sutskever, y el responsable de Alineamiento, Jan Leike, y utilizará el 20 por ciento de la computación obtenida.
"La superinteligencia será la tecnología más impactante que la humanidad haya inventado y podría ayudarnos a resolver muchos de los problemas más importantes del mundo. Pero el vasto poder de la superinteligencia también podría ser muy peligroso y podría llevar a la pérdida de poder de la humanidad o incluso a la extinción humana", han advertido en el blog.
Ante esta situación, OpenAI ha explicado que su objetivo más difícil es "alinear un sistema mucho más capaz" para evitar estos riesgos, que creen que podrían llegar "en esta década". "La gestión de estos riesgos requerirá, entre otras cosas, nuevas instituciones para la gobernanza y la solución del problema de la alineación de la superinteligencia", han señalado.
Al ser un problema que se plantea por primera vez, su objetivo es "construir un investigador de alineación automatizado de nivel aproximadamente humano". "Nuestra principal apuesta de investigación básica es nuestro nuevo equipo de superalineación, pero hacerlo bien es fundamental para lograr nuestra misión y esperamos que muchos equipos contribuyan, desde el desarrollo de nuevos métodos hasta su ampliación para la implementación", han detallado.
Desde la compañía entienden que se necesitan "científicos e innovaciones técnicas para dirigir y controlar sistemas de inteligencia artificial mucho más inteligentes que nosotros". El propio director ejecutivo, Sam Altman, ha advertido de los riesgos que plantea una IA para el individuo y la sociedad y ha abogado por una regulación de los grandes modelos de lenguaje.
No obstante, los alegatos de Altman han quedado empañados por las informaciones obtenidas por Time sobre sus supuestas presiones para conseguir que la regulación de la IA que prepara la Unión Europea sea menos estricta de lo que se estaba planteando.
Publicado en la revista 'Nature'
Investigadores españoles descubren cómo una alteración neuronal podría ser clave en el origen del autismo
Un paso más Científicos de Barcelona identifican cómo la pérdida de un pequeño fragmento de ADN en la proteína CPEB4 altera la regulación de genes esenciales para el desarrollo neuronal, ofreciendo nuevas pistas sobre el origen del autismo y sentando las bases para posibles terapias futuras.