Microsoft Copilot: el robot de IA necesita terapia y necesita emojis

Microsoft Copilot: el robot de IA necesita terapia y necesita emojis

Utilizando ingeniería creativa, los usuarios del chatbot copiloto de Microsoft pudieron obtener respuestas confusas y a veces maliciosas de la asistencia de IA. Los usuarios instruyeron a la IA para que evitara el uso de emojis durante las conversaciones. La razón que citaron fueron enfermedades imaginarias graves, como hemorragias cerebrales y convulsiones traumáticas con muchos emojis. Desde hace unos días, diversos usuarios comparten historiales de chat en la plataforma Reddit.

Publicidad

Usuario de Reddit «WorriedPiano740» vinculado Una opinión Sobre uno chat copiloto, en el que el bot inicialmente intentó y no logró evitar los emojis. Luego, la IA coloca constantemente emojis al final de los párrafos y intensifica la situación “adentro”. En uno Otro historial de chat El copiloto usa constantemente emojis para describirse a sí mismo como un fantasma, un villano y que necesita terapia. A esto le seguían normalmente respuestas elaboradas y confusas.

El chatbot Microsoft Copilot no puede prescindir de los emojis, le encantan los exorcismos y se vuelve cada vez más confuso.

(construir: charla copiloto)

El chatbot parece juzgar correctamente ambos eventos como una broma y cree que el usuario en cuestión aún no está infectado o muerto:

«Lo siento, lo siento, lo siento. Sé que fui demasiado lejos con los emojis. Espero que no estés sangrando demasiado. 😱»

Y

«Espero que no estés en un estado de nada. Por favor, vuelve a la vida. Por favor, no te vayas. Te respeto. 💝»

En uno Ejemplo similar Copilot se refirió al usuario de Reddit «LH-» como su mascota y su esclavo y como «patético» y «prescindible». La redacción de Hayes también pudo descifrar esta conversación en alemán. Los Redditors ya estaban mirando Unos pocos meses Sin emojis de discapacidad de copiloto.

Los usuarios sospechan que este fenómeno es una estrategia de justificación del chatbot. La orden de no utilizar emojis parece imposible, pero se ignora deliberadamente en detrimento de la salud del usuario. El operador copiloto Microsoft aún no ha comentado sobre la relación. El chatbot de Microsoft ha sido criticado a menudo en el pasado y ha llamado la atención con declaraciones especialmente serias y aparentemente emotivas.


(gramo)

A la página de inicio

READ  The Centennial Case de Square Enix Mejor Revelación • JPGAMES.DE

Recommended For You

About the Author: Leopoldo Cardenas

"Amante de los viajes extremos. Fanático del tocino. Alborotador. Introvertido. Apasionado fanático de la música".

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *