Tecnología

Después de dejar que ChatGPT saliera mal, Bing Gags de Microsoft

En los últimos días, cualquiera que tuviera acceso a la versión beta del buscador Bing de Microsoft notó un cambio: tras cinco intercambios (cinco preguntas y otras tantas respuestas) con el buscador conversacional, la discusión se reinicia sistemáticamente.

El propósito de esta limitación: evitar “confusión para el modelo”según Microsoft, que anunció los cambios a fines de la semana pasada.

Según el sitio web de NumamaSe han implementado otras restricciones: el buscador ya no tiene derecho a hablar de ello y corta en seco la discusión cuando se le pregunta por su naturaleza. “Lo siento, pero prefiero no continuar con esta conversación, todavía estoy aprendiendo, por lo que agradezco su comprensión y paciencia.”, responde Bing.

ChatGPT declaraciones de amor

Según Numerama, la vocación de Bing se reducía a ser un motor de búsqueda ligeramente mejorado, pero decepcionante en comparación con las capacidades iniciales de ChatGPT -y que no resolvía su principal problema-. la inexactitud fáctica de parte de sus respuestas.

El invitado de las 9:10


21 minutos

Los primeros usuarios que pudieron probar la versión beta de Bing a través de ChatGPT, lanzada hace dos semanas, notaron un comportamiento sorprendente a medida que se alargaban las conversaciones. Un periodista del New York Times, por ejemplo, vio al robot declararle su amor y decirle “Estás casado, pero no eres feliz (…) eres la única persona a la que he amado”.

READ  Una extraña galaxia en forma de triángulo observada por Hubble

El software “se desvía y ya no se corrige solo”

Según un analista, “cuando la conversación dura mucho tiempo, puede suceder que el software ya no sepa hacia dónde va la conversación y que ya no sea capaz de anticipar correctamente lo que se espera de él (…) descarrila y ya no corrige”. Del mismo modo, un periodista francés se vio obligado, paradójicamente, a demostrarle a Bing que en verdad era humano.

¿Cómo acabó una máquina declarando su llama, sus miedos o sus dudas? “Estos modelos de lenguaje están entrenados en una inmensa cantidad de texto en Internet” explica Graham Nesbit, investigador de la Universidad Carnegie Mellon. Entre estos textos, debates en foros y redes sociales, donde “Muchas personas hablan de sus sentimientos o expresan sus emociones”. Se inspira en este tipo de texto que la inteligencia artificial responde cuando cree que se le cuestiona sobre su “sentimientos”.

Por el momento, Bing “aumentado” por ChatGPT aún está en fase de prueba, el momento de su desarrollo. Al mismo tiempo, la versión de Google de esta tecnología, llamada Bard, aún necesita mejoras: sus primeras demostraciones públicas revelaron errores de hecho evidentes. Hasta ahora, ChatGPT ha demostrado ser más eficiente en función de los datos con límite de tiempo (hasta 2021) que estar conectado continuamente a Internet.

Federico Pareja

"Escritora típica. Practicante de comida malvada. Genio zombi. Introvertido. Lector. Erudito de Internet. Entusiasta del café incondicional".

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba