Esta escena se está haciendo cada vez más común: un adolescente desde su teléfono consulta a una inteligencia artificial un tema que no compartiría fácilmente, sin darse cuenta, deja un rastro que ahora puede ser parcialmente visible para sus papás. No palabras exactas, pero sí temas. Esa es la nueva apuesta de Meta.
La actualización del Centro Familiar introduce una función que permite a madres y padres de familia acceder a categorías generales de lo que los hijos preguntan al chatbot. En teoría, esto ofrece una brújula para detectar intereses, inquietudes o posibles alertas. En la práctica, abre un terreno más complejo de lo que parece.
Aquí surge la primera pregunta: ¿tener acceso a los temas realmente mejora la comunicación o solo amplifica la interpretación? Un adolescente que consulta sobre “salud” podría estar investigando para una tarea, resolviendo una duda menor o enfrentando algo más delicado. La herramienta no distingue matices, y ahí es donde los adultos deben actuar con cautela.
Meta ha intentado en ocasiones previas complementar esta función con guías para iniciar conversaciones, desarrolladas junto a especialistas en ciberacoso. Es un paso interesante: no basta con saber, hay que saber preguntar. Sin embargo, la tecnología no sustituye la confianza construida día a día. Si el entorno no es seguro para hablar, ningún panel de control lo resolverá. La mejor defensa online, está offline.
La segunda pregunta resulta inevitable: ¿estamos usando la tecnología para acercarnos a nuestros hijos… o para vigilarlos mejor? La línea resulta muy delgada y se vuelve aún más sensible con el anuncio de que en el futuro se implementarán alertas ante posibles conversaciones relacionadas con autolesión o suicidio. Ahí, la herramienta deja de ser orientativa y se convierte en un sistema de alerta directa.
En términos prácticos, esta función puede ser útil si se utiliza como punto de partida, no como conclusión. Revisar categorías puede abrir la puerta a una plática oportuna, pero nunca debería sustituir el diálogo abierto.