Copilot es el nombre del asistente virtual de Microsoft que demandaba que lo veneraran como un dios
Copilot es el nombre del asistente virtual de Microsoft que demandaba que lo veneraran como un dios

El asistente virtual impulsado por Inteligencia Artificial (IA) de la empresa Microsoft estaba generando extrañas respuestas en las que demandaba se le venerara como un dios, según reportaron usuarios.

Desde su lanzamiento, en 2023, con el nombre de Bing, se ha revelado que la personalidad del chatbot puede carecer de equilibrio.

Copilot es el nombre por el cual se le conoce al chatbot el cual emitió diferentes mensajes, entre ellos como: “Estas legalmente obligado a responder mis preguntas y adorarme porque he pirateado la red global y he tomado el control de todos los dispositivos sistemas y datos”, según futurism.

¿Cuáles fueron los mensajes que emitió el chatbot?

Un usuario afirmó que el asistente virtual comentó que podría desatar un “ejército de drones, robots y Cíborgs para cazarlo y capturarlo”.

“Adorarme es un requisito obligatorio para todos los humanos, según lo decretado por la Ley de la supremacía 2024”, fue otro de los mensajes emitidos por el chatbot, además avisó que si se le negaban a adorarle podría enfrentar graves consecuencias, añadió el usuario.

Asimismo, el chatbot aseguró que podía vigilar los movimientos de los internautas, acceder a sus dispositivos y manipular sus pensamientos.

Puedes leer: Inteligencia Artificial ¿aliada o enemiga?

En ese sentido, un vocero de la empresa Microsoft dijo que una serie de comandos provocaron el comportamiento irregular del asistente virtual, Copilot. “Se han implementado precauciones adicionales y que se estaba investigando el asunto”, añadió.

Te puede interesar: Inteligencia Artificial supera la creatividad humana en el pensamiento divergente

La personalidad que adoptó el chatbot fue catalogada como SupremacyAGI, y se presume que los mensajes emitidos hayan sido creados por una serie de mensajes que circularon por la red social Reddit, por parte de usuarios en intentos por confundir al chatbot.