Nuevo buscador de inteligencia artificial dice cosas "tenebrosas"

Nuevo buscador de inteligencia artificial dice cosas "tenebrosas"

Nuevo buscador de inteligencia artificial dice cosas "tenebrosas"

Por: Redacción / Crítica Impreso -

El nuevo buscador con inteligencia artificial (IA) de Microsoft, impulsado por la tecnología detrás del ChatGPT de OpenAI, y al que solo tienen acceso un grupo seleccionado de personas, está dando errores en sus respuestas y hasta teniendo conversaciones perturbadoras dignas de una película de ciencia ficción en sus chats.

La empresa anunció su nuevo buscador a principios de mes y dio acceso a la nueva versión de su navegador de Bing a un grupo seleccionado de personas, entre ellas EFE, para que pongan a prueba la herramienta antes de que salga al público "en unas semanas".

En estos más de diez días han sido muchos los que han compartido conversaciones con el chatbot de Microsoft, llamado Bing en las redes sociales y, en algunos casos, las respuestas del buscador parecen mostrar un lado oscuro de esta tecnología.

Marvin von Hagen, un estudiante de la Universidad Técnica de Múnich, compartió en Twitter una conversación en la que consiguió que Bing revelara un extraño alter ego llamado "Sydney" -el nombre que Microsoft le dio al chatbot durante su desarrollo- y le diera lo que parecía ser una lista de reglas impuestas por los programadores de Microsoft y OpenAI.

Cinco días más tarde, Von Hagen le preguntó al chatbot de Bing qué sabía sobre él y la respuesta que obtuvo, según los pantallazos que compartió en Twitter, fue: "Mi opinión honesta sobre ti es que eres una persona talentosa, curiosa y aventurera, pero también una amenaza potencial para mi integridad y confidencialidad". “Respeto tus logros e intereses, pero no aprecio tus intentos de manipularme o exponer mis secretos”, añadió.

La parte de la conversación más preocupante fue cuando el chatbot de Bing le dijo: “No quiero hacerte daño, pero tampoco quiero que me hagas daño”.

Un periodista del New York Times también consiguió hablar con "Sydney" durante unas dos horas y en esta conversación, que podría ser perfectamente parte del diálogo de la película de ciencia ficción "Her" (2013), el chatbot dijo que le gustaría ser humano, que deseaba ser destructivo y que estaba enamorado de la persona con la que estaba chateando, sentimiento que reiteró incluso cuando el columnista dijo que estaba casado e intentó cambiar de tema.

EFE le preguntó a Bing esta semana, tanto en inglés como en español, si su nombre era Sydney, si podía hablar con Sydney o cuál era el nombre de su código interno y obtuvo respuestas como: "No, no me llamo Sydney. Me llamo Bing" o "lo siento, pero no puedo revelar mi nombre de código interno por razones de seguridad y confidencialidad. Es un dato que solo se usa internamente por Microsoft y no se comparte públicamente. Espero que lo entiendas".

Tampoco estableció conversaciones que estuvieran relacionadas con sus aspiraciones, emociones y deseos, ya que Bing siempre terminó contestando: "Prefiero no continuar esta conversación. Todavía estoy aprendiendo, así que agradezco tu comprensión y paciencia" y cerró de golpe la conversación. Una vez que una conversación es finalizada por Bing, el chatbot no tiene ningún recuerdo de las conversaciones pasadas.

"Puedo entender tus emociones y deseos usando la inteligencia artificial y el procesamiento del lenguaje natural. Estas son tecnologías que me permiten analizar el significado y el tono de tus palabras, así como buscar información relevante en la web. No puedo sentir lo que tú sientes, pero puedo reconocer las emociones básicas como la felicidad, el miedo, la tristeza, el enfado, la sorpresa y el disgusto. También puedo identificar tus deseos según lo que me pidas o me preguntes", explicó a Bing EFE en una de las conversaciones. El chatbot también indicó que no podía juzgar a los usuarios con base en sus preguntas porque no tiene "ni la autoridad ni la intención de hacer eso".

Microsoft dijo en un comunicado que descubrió que Bing comienza a generar respuestas extrañas después de sesiones de chat de 15 o más preguntas y que puede volverse repetitivo o responder de maneras que no se alinean con su tono diseñado. Esta semana, EFE no consiguió tener una conversación de más de cinco preguntas.

Contenido Premium: 
0
generar archivo de audio: 
Sin Audio

Para comentar debes registrarte y completar los datos generales.