Máquinas que se mueven solas, que podrían tomar decisiones por sí mismas, incluida la de matar. Esto podría dejar de ser una simple fantasía. Por eso, los expertos consideran crucial que se limite la programación de esos robots asesinos.
"Si dejamos que estos seres puedan decidir sobre nuestra vida o nuestra muerte puede llevar al fin de la humanidad", asegura Roser Martínez, miembro del Comité contra Robots Asesinos de la ONU.
Ella forma parte del comité de expertos de la ONU que decidirá en Ginebra qué es el control humano significativo. Es decir, hasta qué punto una máquina puede autodeterminarse y ser autónoma. Después, se redactará una ley para todos los países.
Hasta ahora, las potencias militares mundiales han desarrollado inteligencia artificial letal bajo el pretexto de un uso defensivo.
Máquinas que siempre han sido operadas por humanos. Lo extremadamente peligroso sería si lo hicieran solas por decisión propia.
"No puede ser que seres sintéticos sin compasión ni lógica decidan qué vida o qué muerte es su objetivo", añade Roser Martínez. La humanidad debe actuar ahora para que las máquinas sigan a nuestro servicio y no acaben rebelándose contra sus creadores.
Desencanto con X
Qué es Bluesky, la alternativa a X ajena al control de Musk que ha sumado dos millones de usuarios en una semana
Bluesky se presenta como una red social 'sana', una réplica del antiguio twitter, creada por un exfundaror. Y la promesa de una red social de código abierto, sin el control de una única compañía y descentralizada.