TecnoXplora » Internet

ELON MUSK O MARK ZUCKERBERG YA ADVIERTEN DE LOS RIESGOS DE LA IA

¿Es la inteligencia artificial el nuevo peligro para la humanidad?

Aunque la IA tiene muchos beneficios, los expertos advierten acerca de sus peligros. ¿Su desarrollo puede poner en peligro a la humanidad?

Inteligencia artificial

Pixabay Inteligencia artificial

Publicidad

Sandra Arteaga | @euridice19 | Madrid
| 04.01.2019 13:11

En los últimos años, la inteligencia artificial ha avanzado a pasos agigantados y se ha convertido en una de las áreas de la tecnología digital que más ha crecido. Gracias a la IA y al aprendizaje automático, muchas tareas que antes requerían de largos procesos de desarrollo y amplios equipos de personas, ahora se llevan a cabo en cuestión de segundos y sin necesidad de la intervención humana.

Entre otras cosas, gracias a la inteligencia artificial es posible la conducción autónoma, que tiene potencial para revolucionar el transporte, reducir los accidentes y salvar millones de vidas; analizar e interpretar millones de datos en tiempo récord para predecir patrones útiles que permiten optimizar todo tipo de aspectos, desde el rendimiento de las empresas hasta el diagnóstico de enfermedades; o mejorar la seguridad mediante nuevos sistemas de identificación y validación inteligente.

No obstante, a pesar de las ventajas y beneficios que puede tener la IA, muchos pensadores y expertos han alzado la voz para advertirnos de los peligros que entraña la inteligencia artificial. Stephen Hawking fue uno de los primeros en manifestar su recelo en diciembre de 2014, cuando afirmó en la BBC que el desarrollo de la IA podría significar el fin de la raza humana. Según el físico, una inteligencia artificial completa “despegaría por sí sola y se rediseñaría a un ritmo cada vez mayor. Los humanos, limitados por la lenta evolución biológica, no podrían competir y serían superados”.

El año pasado, más de 100 líderes en el área de robótica e IA, entre ellos Elon Musk, fundador de Tesla o SpaceX; Mark Zuckerberg, fundador de Facebook; o Mustafa Suleyman, cofundador de DeepMind de Google, lanzaron una advertencia sobre los riesgos que plantean las máquinas con una gran inteligencia. Lo hicieron mediante la Carta Abierta a la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales, en cuyo texto los firmantes advertían de la necesidad de establecer un grupo de expertos sobre sistemas letales de armas autónomas, ya que las tecnologías de inteligencia artificial y robótica pueden ser reutilizadas para desarrollar armas autónomas que pueden poner en peligro a la humanidad.

“Estas pueden ser armas de terror, armas que los déspotas y terroristas usen contra poblaciones inocentes, y armas hackeadas para comportarse de manera no deseada […]. Una vez que se abra esta caja de Pandora, será difícil cerrarla”, advertía la Carta Abierta.

Por este motivo, es importante que el desarrollo de la IA siga unos principios éticos y que las autoridades mundiales velen por su cumplimiento. En esta línea, el Parlamento Europeo ha aprobado un informe sobre robótica con un código ético de conducta que establece un marco para el diseño, producción y uso de los robots para proteger a los humanos frente a las máquinas, tanto la integridad física como otros aspectos, por ejemplo la privacidad o la libertad.

El debate está abierto, ¿cómo crees que la inteligencia artificial afectará a las personas a largo plazo?

Publicidad