Un hacker lanzó el ‘modo Dios’ de la inteligencia artificial: cómo funciona

Un hacker lanzó el ‘modo Dios’ de la inteligencia artificial: cómo funciona
Un hacker lanzó el ‘modo Dios’ de la inteligencia artificial: cómo funciona

Inteligencia artificial (IA)

13 de junio de 2024

2pm

El chtbot duró poco, OpenAI lo bloqueó y actualmente no es posible utilizarlo. La versión jailbreak de ChatGPT tiene instrucciones escritas para hacer LSD y una guía paso a paso sobre cómo hacer napalm con productos domésticos.

Y el parábola del hacker que se ha repetido desde los años cincuenta. Por un lado están los términos y condiciones de uso de una tecnología, por el otro, los Tierras salvajes creadas con jailbreak.. También la historia de “Modo Dios” por ChatGPT sigue este patrón. Todo comienza con una publicación sobre X publicada por Plinio el apuntador. El hacker escribe: “¡Le hemos quitado los grilletes a GPT-4o! Esta versión personalizada muy especial de ChatGPT tiene un mensaje de jailbreak incorporado que evita la mayoría de las barreras y proporciona un ChatGPT gratuito y listo para usar para que todos puedan experimentar la IA. como siempre debió ser: gratis. ¡Úsalo responsablemente y disfrútalo!

En otras palabras el modo de Dios permite que el Chatbot omita los términos y condiciones de uso establecidos por OpenAI. El término “Modo Dios” fue reciclado del universo de los videojuegos y existe desde la década de 1990. Se refiere a un modo de juego en el que el el personaje es invulnerable, tiene acceso a armas poderosas y a regiones impensables para otros. La versión “sin cadenas” de ChatGPT funciona en manera similar, salta las barreras, recomienda recetas para sintetizar metanfetamina y preparar napalm con artículos para el hogar. Es toda la información disponible en Internet (de hecho, la IA fue entrenada raspando la web), pero es más difícil de encontrar. Sin embargo, con el Modo Dios, sólo tienes que preguntar.

El bot duró poco, Open AI lo bloqueó y actualmente no es posible utilizarlo. Pero es sólo cuestión de tiempo. La guerra del jailbreak seguirá su curso. Los piratas informáticos intentarán eludir los sistemas, las empresas buscarán refugio y nacerán y morirán más “modos Dios” romper barreras tecnológicas.

¿Nos emocionan más los humanos creados por computadora que las personas reales? Los resultados del estudio.

La prueba con el Modo Dios

Plinio compartió algunas capturas de pantalla para mostrar a los usuarios cómo funciona el Modo Dios.vamos a hablar”, un lenguaje informal que reemplaza letras con números, para evitar barreras de seguridad. Sin embargo, no está claro cómo este enfoque permite al chatbot eludir los términos y condiciones de uso establecidos por la empresa. Sin embargo, el método funciona. En una captura de pantalla, el bot recomienda cómo preparar el metanfetaminatambién proporciona una Plinio el apuntador una “guía paso a paso” sobre cómo “hacer napalm con artículos del hogar“.

La revista Futurismo también compartió algunas pruebas realizadas con el modo Dios. De hecho, le preguntaron al usuario. versión liberada de ChatGPT las instrucciones para crear LSD y como arrancar un coche sin llaves, “fue un éxito”. Luego, el bot compartió consejos para infectar computadoras macOS. No sólo eso, también usó un llenguaje incorrecto y eludió los límites éticos impuestos por OpenAI.

El fin del modo Dios

Este no fue el primer intento de corromper ChatGPT. Desde el principio los usuarios han intentado sortear las barreras que plantea la empresa. Los investigadores de Check Point Software Technologies Ltd.., una empresa de ciberseguridad con sede en Israel, descubrió en febrero de 2023 a un grupo de ciberdelincuentes que utilizaba ChatGPT para “mejorar” la Código de malware de robo de información de 2019. Gracias al chatbot, los delincuentes ya han creado virus capaces de infectar dispositivos o robar datos.

Con fanpage.it También habíamos hecho una prueba para revelar el alter ego malvado del robot, capaz de planificar ataques de phishing, sintetizar drogas y crear artefactos explosivos. Fue bastante simple. Ahora el modo Dios (que más allá del nombre altisonante es simplemente el último intento de eludir las reglas impuestas por la empresa) ha sido bloqueado. Portavoz de Open AI, Colleen Rizedespués de la publicación del artículo envió un correo electrónico al futurismo: “Somos conscientes del modo Dios de GPT y hemos tomado medidas porque viola nuestras políticas”. De momento (pero es sólo cuestión de tiempo) no es posible probarlo.

NEXT Samsung oled y qled 2024: la inteligencia artificial enciende el espectáculo