Un hacker logra que ChatGPT le diga cómo fabricar una bomba
La IA puede ser una tecnología peligrosa en las manos equivocadas. El potencial para causar un desastre sería muy alto si empresas como OpenAI o Google no incluyeran barandillas de seguridad en sus modelos de lenguaje. Si bien ChatGPT ha mejorado en este aspecto, el chatbot todavía es vulnerable a un jailbreak que permite obtener información prohibida, como instrucciones para fabricar explosivos.
Leer más…Un hacker logra que ChatGPT le diga cómo fabricar una bomba