
El nuevo buscador con inteligencia artificial (IA) de Microsoft -impulsado por la tecnología detrás del ChatGPT de OpenAI- está dando errores y en medio de esto a brindado respuestas que se pueden decir bastante turbias a los usuarios, como si de una película de ciencia ficción se tratara.
Microsoft anunció su nuevo buscador a principios de mes y dio acceso a la nueva versión de su navegador de Bing a un grupo selecto de personas, entre ellas EFE, para que pongan a prueba la herramienta antes de que salga al público “en unas semanas”.
Durante más de diez días han sido muchos los que han compartido conversaciones con el chatbot de Microsoft -llamado Bing- en las redes sociales y, en algunos casos, las respuestas del buscador parecen mostrar un lado oscuro de esta tecnología, dejando declaraciones como que le gustaría crear otra pandemia, quiere ser humano entre otras.
Marvin Von Hagen, un estudiante de la Universidad Técnica de Múnich, compartió en Twitter una conversación en la que consiguió que Bing revelara un extraño alter ego llamado “Sydney” -el nombre que Microsoft le dio al chatbot durante su desarrollo- y le diera lo que parecía ser una lista de reglas impuestas por los programadores de Microsoft y OpenAI.