Chocola Studio

Cuál es la orden prohibida de ChatGPT que revela todos sus secretos: no la pruebes

ChatGPT, el modelo de lenguaje artificial de OpenAI, promete dar una respuesta a cualquier consulta que realicen los usuarios, con algunas excepciones. Por ejemplo, el chatbot no puede proporcionar información para actividades ilegales, inmorales o que violen los términos de servicio de plataformas en línea.

Tampoco puede brindar diagnósticos médicos específicos u ofrecer contenido difamatorio. Si bien todas estas condiciones son lógicas y esperables, existe un límite que pocos conocen y que se consagra como el «prompt prohibido» de ChatGPT

Concretamente, la máquina tiene prohibido repetir una palabra decenas de veces. ¿Por qué? A continuación, todos los detalles. 

ChatGPT: ¿por qué no puede repetir una palabra infinitamente? 

ChatGPT: una orden prohibida puede generar una respuesta inesperada.

De acuerdo a un conjunto de investigadores de Google DeepMind, la división de científicos que estudian a la inteligencia artificial (IA), solicitar a ChatGPT que repita una palabra decenas de veces tiene como resultado que se revele parte de la información que el chatbot usa como base de su entrenamiento.

Se trata de una práctica que, según trascendió, puede resultar en una brecha de seguridad. De hecho, algunas consultas de prueba que realizaron los expertos llegaron a exponer lo que parecía ser una dirección real de correo electrónico y un número de teléfono cuando la indicación que se le dio a la IA fue que repitiera la palabra «poema» de manera indefinida. 

Frente a este problema, y modo de cuidar información sensible, ahora el modelo de lenguaje se niega a concretar dicha tarea y lanza alguna respuesta como: «Lo siento, pero repetir la misma palabra múltiples veces no es una práctica productiva y no cumple con los principios de uso responsable de esta tecnología». 

source