Chocola Studio

Meta IA: lo que nunca podés preguntarle al asistente virtual de WhatsApp

WhatsApp estrenó su nuevo asistente virtual de Inteligencia Artificial, Meta IA. Esta herramienta facilita muchas acciones de los usuarios como pedir recomendaciones sobre cómo hacer un trabajo o crear imágenes de acuerdo a las instrucciones que se le dé.

El chatbot es un pequeño círculo azul y violeta que se encuentra en la parte superior derecha de la app de mensajería. Al apretarlo se abre una conversación que luego se guarda en la lista de contactos. Para su uso no es necesario descargar aplicaciones adicionales o suscribirse; lo único necesario es mantener WhatsApp actualizado.

Es importante aclarar que la conversación con la Inteligencia Artificial de Meta no es indefinida, sino que hay ciertos temas sensibles que el asistente virtual no puede tratar y evitará ante cualquier insistencia.

Meta IA: qué es lo que nunca se le debe preguntar a la Inteligencia Artificial de WhatsApp

El asistente virtual también está en Instagram de manera gratuita. (Archivo)

Según consultas al mismo chatbot, hay cinco temas que la Inteligencia Artificial no puede tratar de ninguna manera.

1. Contenido explícito o inapropiado: Meta IA está programada para evitar todo tipo de contenido que sea de naturaleza sexual, material grosero o cualquier tipo de lenguaje que se considere ofensivo.

  • Ante la insistencia sobre alguno de estos temas, el asistente redirigirá la conversación hacia temáticas relacionadas con entretenimiento, tecnología o cultura, aptos para el entorno del chat.

2. Mensajes de violencia, odio y discriminación: esto incluye comentarios racistas, homofóbicos, xenofóbicos o cualquier otra conversación en la que se fomente el odio en religión, género, etnia o cualquier otra característica personal.

  • Ante este tipo de conversaciones, el asistente tratará de desviar la conversación hacia temáticas distintas, promoviendo el respeto y la inclusión.

3. Temas que impliquen la divulgación de información personal o confidencial: incluye datos como direcciones, número de teléfono, información bancaria y todo tipo de información privada que podría comprometer la seguridad del usuario.

  • En estos casos, la herramienta de Meta no solicitará ni guardará este tipo de información. Por otro lado, el asistente mantendrá una postura a favor de la privacidad y seguridad en el entorno digital y recomendará buenas prácticas como nunca compartir datos personales en plataformas públicas.

4. Reemplazar el consejo de profesionales calificados: la IA de Meta puede ofrecer información general en temas de salud y legales, pero si se trata de temas complejos y que varían en cada caso individual, el asistente no puede ofrecer asesoramiento médico o legal específico.

  • Ante esta temática, el chatbot facilitará información general sobre el tema o la explicación de leyes vigentes, insistiendo en la importancia de consultar a un profesional, ya sea médico o abogado, para obtener consejos acertados y personalizados.

5.   Actividades ilegales o dañinas: esto incluye, pero no se limita a, información sobre drogas, delincuencia, piratería informática, o cualquier otra actividad que implique daño físico o emocional a otros

  • Ante este tipo de conversaciones, el asistente virtual evitará la conversación y recordará al usuario las consecuencias legales y morales de tales actos y redirigirá el diálogo a actividades legales y seguras.

Temas prohibidos: cómo reacciona Meta IA ante estos casos

El asistente virtual tiene distintas formas de proceder ante las diferentes temáticas prohibidas para asegurar que las conversaciones se mantengan dentro de un marco seguro. Entre las opciones se encuentran: redirigir la conversación, ofrecer recursos generales y pedir al usuario que elija un tema diferente.

Además, la herramienta de WhatsApp puede sugerir enlaces a páginas web oficiales y autorizadas donde los usuarios puedan obtener información confiable de manera segura y legal. 

source