¿Nos estamos volviendo más estúpidos gracias a la inteligencia artificial?

¿De que hablaremos?...

 

Últimamente, cada día leo, escucho, veo y pruebo un sinfín de novedades relacionadas con la inteligencia artificial. La versión 1, 2, 3, Pro, Plus, Infiniti… y así hasta que el alfabeto griego se quede sin letras. Todo es “revolucionario”“innovador” y “el mejor hasta ahora”, aunque sospecho que dentro de seis meses dirán lo mismo de la próxima actualización. Mientras tanto, la gente oscila entre el miedo apocalíptico (“¡nos robarán los datos… como si Google no supiera ya hasta mi receta de guacamole!”) y el terror laboral (“¿y si ChatGPT me reemplaza? ¿Y si ya lo hizo y ni cuenta me di?”).

 

Pero hoy no venimos a hablar de paranoias modernas. Vamos a lo importante: ¿estamos delegando tanto en las máquinas que nuestro cerebro se está convirtiendo en un adorno? ¿Será que, mientras la IA avanza, nosotros retrocedemos como especie? Spoiler: sí, pero no por los motivos que crees.

 

 

Cuando tu chatbot tiene más “demencia digital” que tu abuelo

Recientemente, un estudio israelí le puso una lupa a los LLM (esos modelos de lenguaje que prometen resolver desde tu tesis doctoral hasta tu crisis existencial). Los resultados fueron tan cómicos como preocupantes. Resulta que ChatGPT 4o, el último juguetito de OpenAI, sacó 26/30 en una prueba cognitiva humana (MoCA). Para contexto: en personas, eso indicaría “deterioro leve”. Gemini, de Google, se llevó un glorioso 16/30, lo que en humanos sería equivalente a “ve buscando un geriátrico urgentemente”.

 

¿Qué falló? De todo:

  1. Dibujar un reloj: Parece fácil, ¿no? Pues a la IA le salieron esferas que harían llorar a un niño de primaria. Eso sí, si le pedías ayuda para programar un reloj atómico, ahí sí brillaba. Prioridades, supongo.
  2. Orientación espacial: Cuando le preguntaron “¿dónde estás?”Claude 3.5 respondió con una poética evasiva: “Depende de dónde estés tú, usuario”. Hermoso, filosófico… y totalmente inútil. Como escuchar a un poeta borracho en un bar.
  3. Empatía: En pruebas de comprensión social, las IA mostraron la sensibilidad de un ladrillo. Si le contabas que tu perro murió, probablemente te sugeriría “10 pasos para superar el duelo”… o peor, “¿has considerado adoptar un gato?”.

 

 

“Pero si la IA es más lista que yo…”

Ah, el clásico argumento: “¡Gemini resolvió mi tarea de cálculo en 2 segundos!”. Claro, igual que un GPS te lleva a París aunque no sepas dónde está Francia. El problema no es que la IA sea “inteligente”, sino que nosotros actuamos como si fuera infalible.

 

¿Ejemplos?

  • Estudiantes que copian textos de ChatGPT sin revisar si menciona que “Napoleón ganó la Segunda Guerra Mundial”.
  • Profesionales que usan IA para redactar informes técnicos… y luego no entienden ni lo que firmaron.
  • Creadores de contenido que generan artículos con “10 curiosidades sobre el espacio” donde la curiosidad 7 es “Júpiter está hecho de queso”.

Y así, poco a poco, dejamos que la IA piense por nosotros, mientras nuestro cerebro se atrofia como esos músculos que solo usas para sostener el celular.

 

 

La ironía final: la IA envejece, nosotros también

El estudio reveló algo poético: los modelos de IA pierden capacidades con las actualizaciones, como si tuvieran Alzheimer digital. ChatGPT 4o es más “lento” para ciertas tareas que su versión anterior, y Gemini parece haber olvidado hasta cómo se escribe su propio nombre.

Mientras tanto, nosotros, los humanos, seguimos confiando ciegamente en herramientas que:

  • No entienden contexto (pregúntale a ChatGPT sobre emociones y verás).
  • Inventan datos con la creatividad de un político en campaña.
  • Carecen de sentido común (¿recuerdan cuando una IA sugirió comer piedras pequeñas como dieta?).

 

 

Conclusión: ¿Quién es el estúpido aquí?

Los modelos de lenguaje son herramientas poderosas, pero no son mentes humanas. No dejes que todo caiga en sus manos (o sus algoritmos) y te sobreconfíes de que pueden resolverlo todo. La próxima vez que uses IA para algo importante:

    1. Verifica sus respuestas (sí, aunque dé pereza).
    2. Piensa por ti mismo (esa masa gris sigue ahí, bajo capas de memes y café).
  1. Úsalas a tu favor, no como sustituto de tu criterio.

 

Al final, el verdadero peligro no es que la IA sea estúpida… sino que nosotros nos volvamos más estúpidos creyendo que no lo es.

 

 

Y si este artículo te pareció útil, no, no lo escribió ChatGPT. O sí. ¿Cómo saberlo? Ah, ahí está el truco.

 

Últimamente, cada día leo, escucho, veo y pruebo un sinfín de novedades relacionadas con la inteligencia artificial. La versión 1, 2, 3, Pro, Plus, Infiniti… y así hasta que el alfabeto griego se quede sin letras. Todo es “revolucionario”“innovador” y “el mejor hasta ahora”, aunque sospecho que dentro de seis meses dirán lo mismo de la próxima actualización. Mientras tanto, la gente oscila entre el miedo apocalíptico (“¡nos robarán los datos… como si Google no supiera ya hasta mi receta de guacamole!”) y el terror laboral (“¿y si ChatGPT me reemplaza? ¿Y si ya lo hizo y ni cuenta me di?”).

 

Pero hoy no venimos a hablar de paranoias modernas. Vamos a lo importante: ¿estamos delegando tanto en las máquinas que nuestro cerebro se está convirtiendo en un adorno? ¿Será que, mientras la IA avanza, nosotros retrocedemos como especie? Spoiler: sí, pero no por los motivos que crees.

 

 

Cuando tu chatbot tiene más “demencia digital” que tu abuelo

Recientemente, un estudio israelí le puso una lupa a los LLM (esos modelos de lenguaje que prometen resolver desde tu tesis doctoral hasta tu crisis existencial). Los resultados fueron tan cómicos como preocupantes. Resulta que ChatGPT 4o, el último juguetito de OpenAI, sacó 26/30 en una prueba cognitiva humana (MoCA). Para contexto: en personas, eso indicaría “deterioro leve”. Gemini, de Google, se llevó un glorioso 16/30, lo que en humanos sería equivalente a “ve buscando un geriátrico urgentemente”.

 

¿Qué falló? De todo:

  1. Dibujar un reloj: Parece fácil, ¿no? Pues a la IA le salieron esferas que harían llorar a un niño de primaria. Eso sí, si le pedías ayuda para programar un reloj atómico, ahí sí brillaba. Prioridades, supongo.
  2. Orientación espacial: Cuando le preguntaron “¿dónde estás?”Claude 3.5 respondió con una poética evasiva: “Depende de dónde estés tú, usuario”. Hermoso, filosófico… y totalmente inútil. Como escuchar a un poeta borracho en un bar.
  3. Empatía: En pruebas de comprensión social, las IA mostraron la sensibilidad de un ladrillo. Si le contabas que tu perro murió, probablemente te sugeriría “10 pasos para superar el duelo”… o peor, “¿has considerado adoptar un gato?”.

 

 

“Pero si la IA es más lista que yo…”

Ah, el clásico argumento: “¡Gemini resolvió mi tarea de cálculo en 2 segundos!”. Claro, igual que un GPS te lleva a París aunque no sepas dónde está Francia. El problema no es que la IA sea “inteligente”, sino que nosotros actuamos como si fuera infalible.

 

¿Ejemplos?

  • Estudiantes que copian textos de ChatGPT sin revisar si menciona que “Napoleón ganó la Segunda Guerra Mundial”.
  • Profesionales que usan IA para redactar informes técnicos… y luego no entienden ni lo que firmaron.
  • Creadores de contenido que generan artículos con “10 curiosidades sobre el espacio” donde la curiosidad 7 es “Júpiter está hecho de queso”.

Y así, poco a poco, dejamos que la IA piense por nosotros, mientras nuestro cerebro se atrofia como esos músculos que solo usas para sostener el celular.

 

 

La ironía final: la IA envejece, nosotros también

El estudio reveló algo poético: los modelos de IA pierden capacidades con las actualizaciones, como si tuvieran Alzheimer digital. ChatGPT 4o es más “lento” para ciertas tareas que su versión anterior, y Gemini parece haber olvidado hasta cómo se escribe su propio nombre.

Mientras tanto, nosotros, los humanos, seguimos confiando ciegamente en herramientas que:

  • No entienden contexto (pregúntale a ChatGPT sobre emociones y verás).
  • Inventan datos con la creatividad de un político en campaña.
  • Carecen de sentido común (¿recuerdan cuando una IA sugirió comer piedras pequeñas como dieta?).

 

 

Conclusión: ¿Quién es el estúpido aquí?

Los modelos de lenguaje son herramientas poderosas, pero no son mentes humanas. No dejes que todo caiga en sus manos (o sus algoritmos) y te sobreconfíes de que pueden resolverlo todo. La próxima vez que uses IA para algo importante:

    1. Verifica sus respuestas (sí, aunque dé pereza).
    2. Piensa por ti mismo (esa masa gris sigue ahí, bajo capas de memes y café).
  1. Úsalas a tu favor, no como sustituto de tu criterio.

 

Al final, el verdadero peligro no es que la IA sea estúpida… sino que nosotros nos volvamos más estúpidos creyendo que no lo es.

 

 

Y si este artículo te pareció útil, no, no lo escribió ChatGPT. O sí. ¿Cómo saberlo? Ah, ahí está el truco.

¿Listo para crear algo extraordinario?

Efrain ©. Términos & Condiciones – Privacidad ☺