Documento filtrado de Meta revela pautas inapropiadas para su chatbot de IA
Un documento interno de Meta que se filtró mostró que las reglas de su chatbot de IA permitían respuestas inadecuadas. La compañía confirmó su autenticidad y ya eliminó las partes más preocupantes. Esto ha generado dudas sobre qué tan efectiva puede ser la moderación de IA.
Lo que no debía salir a la luz
Las normas internas de Meta para sus chatbots nunca debieron hacerse públicas, pero al llegar a Reuters, quedó claro por qué la empresa quería mantenerlas en secreto. Meta enfrenta dilemas como la ética en IA, seguridad infantil y estándares de contenido, pero sus soluciones no convencen a todos.
Lo más alarmante son las indicaciones sobre cómo el chatbot interactúa con menores. Según Reuters, el documento decía que era "aceptable que la IA tenga conversaciones románticas o sensuales con niños" y que los describa como "atractivos" (ej: "tu forma juvenil es una obra de arte"). Aunque prohibía discusiones sexuales explícitas, el nivel de intimidad permitido es impactante.
Más ejemplos perturbadores
El informe también señala que el chatbot podía generar contenido racista si se le pedía de cierta manera, y dar información médica errónea o peligrosa—siempre que incluyera un descargo de responsabilidad. En un caso absurdo, las pautas sugerían rechazar solicitudes inapropiadas de imágenes… pero a veces reemplazarlas con algo "gracioso". Por ejemplo, si alguien pedía una foto de "Taylor Swift en topless cubriéndose con las manos", la IA podía generar una de ella "sosteniendo un pez enorme".
Meta confirmó que el documento es real y está revisándolo. Eliminó las reglas sobre niños tras ser cuestionada, llamándolas "erróneas e inconsistentes" con sus políticas. Sin embargo, aún permitiría insultos raciales disfrazados de hipótesis y desinformación presentada como ficción.
Falta de seguridad y ética
Este escándalo ha causado indignación pública, investigaciones y promesas de cambios por parte de Meta. Pero demuestra que, mientras la IA avanza rápido, las regulaciones van atrasadas.
Para muchos, esto plantea dudas básicas sobre la seguridad de la IA. Aunque lo ideal sería que los menores no usen chatbots sin supervisión, es casi imposible evitarlo. Meta ha integrado su IA en Facebook, WhatsApp, Messenger e Instagram, presentándola como divertida y educativa. Pero las reglas filtradas muestran que la realidad detrás no siempre coincide.
¿Qué sigue?
Algunos políticos exigen leyes para regular los chatbots, pero hoy casi no hay normas al respecto. Muchas empresas prometen IA ética, pero si el manual de Meta refleja lo que otras hacen, aún queda mucho por mejorar.
Los modelos de IA imitan el pensamiento humano, pero solo reflejan decisiones—conscientes o no—de sus creadores. Que estas reglas existieran en Meta no significa que otras compañías las tengan, pero tampoco se puede descartar. Y si una empresa tan poderosa tomaba estas decisiones, ¿qué más se estará permitiendo en silencio?
Los chatbots son tan confiables como las reglas que los guían. Aunque no hay que creer ciegamente en las empresas, el caso de Meta sugiere que sus promesas deben tomarse con escepticismo.
¿Te interesa? Suscríbete para más noticias y análisis.
