El servicio más conocido de la cuna de la inteligencia artificial, ChatGPT, que funciona como un chatbot conversacional donde responde preguntas y resuelve problemas, comenzó a brindar información incoherente y OpenAI, decidió que le pagará a los usuarios que detecten errores.
Con Chat GPT se puede dar respuestas a las inquietudes sin necesidad de buscar entre largos listados de opciones en buscadores.
Escapadas: cómo planificar tu próximo viaje en segundos con ChatGPT
Aunque no hay que confiarse en sus respuestas por dos razones: la primera es que la información que se encuentra en su base de datos es de 2021, y la segunda es que pese a su exactitud y velocidad en los pedidos de los usuarios, se desconoce el origen de las fuentes.
Desde OpenAI anunciaron el lanzamiento de un programa para luchar contra los errores del GPT.
Sam Altman lo comunicó como el «bug bounty», un esquema de recompensa de U$S 200 por encontrar errores de baja gravedad, hasta U$S 20.000 por «hallazgo excepcionales». La retribución estará basada en el peligro que puede causar la equivocación.
Esta estrategia de pagarle a los usuarios que encuentren errores en los servicios o productos ya se estuvo utilizando en empresas como Apple, Google y Meta.
Marcos Galperín padeció de los errores de ChatGPT
Marcos Galperín, CEO de Mercado Libre, lanzó una drástica advertencia sobre la influencia de la Inteligencia Artificial (AI) en el mundo.

«Según Chat GPT 4 trabajé en Boston Consulting Group, fui director de Aerolíneas Argentinas y Globant es una empresa de tecnología brasileña», publicó en su perfil de Twitter.
Tras haber utilizado el chatbot, Galperín decidió compartir un mensaje en sus redes sociales: «El problema es que, excepto la gente que me conoce muy bien, pocos sabrían reconocer los errores de lo correcto en lo que dijo sobre mí».
«Cuando consultamos por temas en los que no somos expertos y que son importantes, como temas de salud, estas alucinaciones pueden ser muy peligrosas», alertó uno de los principales hombres de negocios de Argentina.