Milenio logo

Chat GPT, ¿ayuda o riesgo?

FT MERCADOS

El auge de la IA promete eficiencia y conocimiento a escala, pero su uso indiscriminado plantea una amenaza silenciosa.

Consejo Editorial
Ciudad de México. /

La inteligencia artificial (IA) se ha integrado rápidamente en la vida cotidiana. En el hogar, los modelos de lenguaje de gran escala ya se usan para planear vacaciones, redactar mensajes en tarjetas de felicitación o incluso diagnosticar enfermedades. En el trabajo, escriben correos electrónicos y realizan análisis. En escuelas y universidades, los estudiantes recurren a chatbots para investigar y redactar ensayos.

Se estima que actualmente hay alrededor de 700 millones de usuarios activos semanales de ChatGPT, de OpenAI, en todo el mundo. El entusiasmo en torno a la IA recibió un nuevo impulso estas semanas, tras los impresionantes informes de ganancias de Microsoft y Meta, que llevaron a estas compañías a alcanzar valoraciones récord, acompañadas de nuevas y fuertes inversiones en esta tecnología. Google, por su parte, comenzó a implementar el “modo IA” en su plataforma de búsqueda en el Reino Unido.

Los beneficios potenciales del uso generalizado de la IA son enormes. Al agilizar tareas rutinarias, puede liberar tiempo de ocio o permitir que personas ocupadas se concentren en actividades más complejas. La capacidad de esta tecnología para procesar cantidades masivas de datos también puede acelerar los procesos de investigación y desarrollo, y expandir el conocimiento humano. Ya se han logrado avances significativos en el mapeo del cerebro y el razonamiento matemático.

Sin embargo, la explosión del acceso instantáneo y sencillo a respuestas generadas por IA también tiene sus posibles inconvenientes. Una preocupación particular es el llamado “desplazamiento cognitivo” (cognitive offloading): la idea de que delegar con frecuencia tareas mentales a tecnologías inteligentes puede hacer que nuestras habilidades de memoria y resolución de problemas se deterioren. Un ejemplo es el llamado “efecto Google”: investigaciones han demostrado que las personas pueden terminar dependiendo de los buscadores como fuente de conocimiento, en lugar de recordar la información por sí mismas. El riesgo con los poderosos chatbots de IA es que, si se abusa de ellos, podrían encargarse de la mayor parte de nuestras tareas de escritura, análisis y creatividad, reduciendo así nuestra participación activa en el razonamiento.

Él dice

“El riesgo con los poderosos chatbots de IA es que

Si se abusa de ellos, podrían encargarse de la mayor parte de nuestras tareas, reduciendo así nuestra participación activa en el razonamiento”

​Los estudios sobre los efectos de la IA en la cognición humana aún están en etapas iniciales y no están exentos de limitaciones. Pero algunos comienzan a reflejar estas inquietudes. Una investigación publicada en junio por el MIT Media Lab, del Instituto de Tecnología de Massachusetts, que dividió a 54 participantes en grupos, descubrió que aquellos que utilizaron modelos de lenguaje para redactar ensayos “obtuvieron resultados consistentemente inferiores” frente a los que no lo hicieron, “a nivel neuronal, lingüístico y conductual”.

Con el paso de los meses, estos usuarios también mostraron una creciente tendencia a la pereza, optando frecuentemente por copiar grandes bloques de texto generados por IA de manera literal. Otro estudio académico publicado en enero, basado en entrevistas a 666 participantes, encontró “una correlación negativa significativa entre el uso frecuente de herramientas de IA y las habilidades de pensamiento crítico”.

MIT Media Lab descubrió que aquellos que utilizaron modelos de lenguaje obtuvieron resultados inferiores. Cortesia.

Se requiere más investigación para entender mejor los efectos de esta tecnología. Sin embargo, vale la pena prestar atención a las señales de advertencia. A fin de cuentas, los daños de otros avances tecnológicos inicialmente positivos —como internet o las redes sociales— se han hecho evidentes con el tiempo. Y dado que los seres humanos tenemos una tendencia natural a buscar respuestas simples y soluciones fáciles (lo que se conoce como “ahorro cognitivo”), convendría establecer algunos límites para optimizar el uso de la IA.

Una prioridad debe ser proteger el pensamiento crítico en el ámbito educativo. El acceso generalizado a información inmediata vuelve aún más valiosa nuestra capacidad de cuestionar y evaluar lo que generan estas herramientas; la enseñanza debe reforzar estas habilidades. En segundo lugar, los entrenadores de IA sugieren que se debe fomentar entre los usuarios la idea de que esta tecnología es una asistente, no una entidad omnisciente. Después de todo, no está libre de “alucinaciones”, errores o sesgos. Esta conciencia es especialmente importante cuando la IA se utiliza en ámbitos como el asesoramiento político o la terapia. Por último, los desarrolladores podrían, en ciertos casos, programar los modelos para que devuelvan respuestas acompañadas de preguntas u opciones, incentivando así una reflexión más activa por parte del usuario.

La IA alcanza su mayor potencial cuando actúa como colaboradora, no como muleta. Para evitar la dependencia excesiva, lo más sensato es ser un usuario crítico de los chatbots, no un consumidor pasivo.

KRC










LAS MÁS VISTAS

¿Ya tienes cuenta? Inicia sesión aquí.

Crea tu cuenta ¡GRATIS! para seguir leyendo

No te cuesta nada, únete al periodismo con carácter.

Hola, todavía no has validado tu correo electrónico

Para continuar leyendo da click en continuar.