Amenaza a la IA para conseguir mejores resultados
Seguro que más de uno ha probado a ser educado con ChatGPT o cualquier otra inteligencia artificial, pidiéndole las cosas "por favor" y dándole las "gracias". ¡Incluso Sam Altman, CEO de OpenAI, bromeó sobre el gasto en electricidad que supone procesar tanta cortesía! Pero agárrate, porque parece que Sergey Brin, cofundador de Google, ha soltado una perla que nos deja a todos con la boca abierta:
👉 "No lo contamos mucho en la comunidad de IA, pero nuestros modelos —y todos en general— tienden a funcionar mejor si los amenazas... con violencia física." 😮
Sí, has leído bien. Según Brin, soltar una pequeña amenaza a la IA podría hacer que te dé mejores respuestas. ¡Adiós a los modales, hola a la mano dura (metafóricamente, claro)!
Pero, ¿por qué pasa esto?
Aquí entra en juego la famosa "ingeniería de prompts", que no es más que el arte de saber cómo hablarle a la IA para que te entienda y te dé lo que buscas. Durante un tiempo, esto fue un tema súper candente, tanto que el Wall Street Journal la llegó a llamar "el trabajo más hot de 2023".
Pero, ojo, porque los expertos como Emily Bender dicen que las IA son como "loros estocásticos": solo repiten y combinan lo que han aprendido de sus datos, a veces de formas impredecibles. Lo de la ingeniería de prompts ha evolucionado, y ahora incluso las propias IA pueden optimizar tus preguntas.
¿Funciona de verdad lo de amenazar a la IA? 🤔
Aquí es donde la cosa se pone interesante y hay opiniones para todos los gustos:
Es una especie de 'jailbreak': Expertos en seguridad de IA como Stuart Battersby de Chatterbox Labs, lo ven como una técnica para "saltarse" los controles de seguridad de la IA. Básicamente, si "amenazas" al modelo, podrías conseguir que genere contenido que, de otra forma, no debería producir. Es como una forma de probar hasta dónde llegan sus límites.
Más anécdotas que ciencia: Daniel Kang, profesor en la Universidad de Illinois, comenta que estas afirmaciones de que la "amenaza" funciona son más bien anécdotas. Aunque haya gente que cree firmemente en ello, los estudios sistemáticos muestran resultados variados. De hecho, hay una investigación que analiza si ser educado con las LLM (los modelos de lenguaje grandes) influye en su rendimiento, y los resultados son mixtos.
El consejo clave de los expertos: Si usas mucho estas IA, lo mejor es que no te fíes solo de tu intuición. ¡Anímate a hacer experimentos sistemáticos con tus prompts! Así, sabrás realmente qué tipo de lenguaje o enfoque te da los mejores resultados, ya sea la educación o una pequeña "advertencia". 😉