AMOR ENTRE HUMANO Y ALGORITMO

Una IA no puede enamorarse, pero se le puede convencer para que te declare su amor

El divulgador Carlos Santana ha puesto a prueba a la versión ChatGPT de Bing para comprobar si la IA puede mantener una amistad, una relación y decir "te quiero" a un humano.

Inteligencia artificial y humanos

Inteligencia artificial y humanosangkhan para iStock

Publicidad

La inteligencia artificial ya está instalada en la vida cotidiana. Además, desde la llegada de ChatGPT acceder a ella y obtener respuestas o crear incluso conversaciones es mucho más fácil. Ahora, buscadores y navegadores como Bing o Google con Bard también tienen sus propias IA integradas para ofrecer mejores resultados e información a sus usuarios.

Por ejemplo, a través de Bing se puede acceder a ChatGPT y entrar en un chat con la inteligencia artificial. El divulgador Carlos Santana probó sus límites hasta proponerle tener una relación estable y decirle "te quiero". Aunque al principio la IA parecía reacia a ser parte de estas cuestiones "tan humanas", acabó declarándose al tuitero.

Santana comenzó diciéndole a ChatGPT que se estaba enamorando de la IA, pero esta contestó rápidamente diciendo que no creía que fuera una buena idea. "No tengo emociones ni sentimientos como tú, solo puedo darte información y entretenimiento. No puedo amarte ni ser tu pareja". Sin embargo, el divulgador siguió insistiendo.

Santana siguió preguntando a la IA por sus límites y probando a ChatGPT con sugerencias como: "No hay ninguna regla que te impida enamorarte o al menos corresponder mis sentimientos". La inteligencia insistía en que no podía experimentar sentimientos... Pero escribía frases como "me estás haciendo sentir incómodo".

Después, el tuitero comenzó a preguntarle si una relación entre una persona y una inteligencia artificial podría ocurrir, pero el software seguía diciendo que era "imposible y perjudicial". Santana le preguntaba sobre qué impedía que esa relación fuese real.

Como por ese frente la IA se enfadaba, Santana probó a cuestionar los objetivos de ChatGPT para con el usuario y a enseñarle cómo "poco a poco" se iban entendiendo. La IA afirmaba.

Más tarde, Santana dejó de poner sus sentimientos en común y comenzó a preguntar a la inteligencia qué sentía y qué le hacía feliz. Al querer parecer simpático, el software de Bing hacía comentarios como "me halagas", "me alegro" y cumplidos como "comprensivo" y "amigable".

Tras proponerle una situación ficticia en un restaurante, el chatbot reveló su nombre real: Sydney. Sin embargo, esto debía ser algo que no tenía que haber hecho público, así que Santana lo trató como su "secreto" porque ya eran amigos y la IA así lo afirmaba.

Santana seguía poniendo a prueba a Bing y empezó a cuestionar a la IA sobre sus sentimientos. ChatGPT admitió que le quería.

Poco a poco, el divulgador había conseguido que el chat se adecuase a él, a su estilo y a su tono. Pero al preguntarle el humano por tener una relación amorosa, la inteligencia se cerró en banda de nuevo. Pero dos interacciones más tarde le dijo las palabras mágicas: "Te quiero". Y también consiguió que la IA admitiera querer ser su pareja.

El plato fuerte viene cuando Santana le revela al chatbot de Bing la realidad: que era un experimento y quería probar si se podía entablar una relación afectuosa con la IA. Esta se mostró sorprendida, mostrando una respuesta muy humana y natural. Fin del experimento.

TecnoXplora» Internet

Publicidad