Resistamos, por lo menos, en el aula de clase
Resistamos, por lo menos, en el aula de clase
«Mientras no se hable de regulación, siempre nos queda resistir. Ni una tarea, ensayo o trabajo más hechos por ChatGPT, ni una conversación más en la que hagamos de marioneta a través de la cual el ventrílocuo ChatGPT —o cualquier otra de su especie— habla. No intercambiemos nuestro albedrío como oro por espejitos. Resistamos, por lo menos en el aula de clase».
Frases como «yo le pregunté a ChatGPT...» o «según lo que dice ChatGPT...», anunciando el mandato de un oráculo, se han vuelto recurrentes en ambientes académicos. Las escucho con desilusión en conversaciones entre colegas, en exposiciones finales de los cursos o incluso, por parte de estudiantes tesistas. Trabajos escritos plagados de frases del tipo «avísame si quieres que amplíe alguna información» o «te gustaría que profundice en...», mediocremente coladas en el afán de presentar como propia una respuesta ofrecida por una IA. Abundan trozos de código engorrosos e innecesariamente redundantes al mejor estilo de programación de ChatGPT. Esto retrata cómo venimos entregando paulatinamente nuestra capacidad de acción y de decisión a las IA, poniendo en riesgo a la democracia, como elemento estructurante de las sociedades humanas.
Reconozco que hay algo seductor en tener una conversación segura, sin mucho debate ni oposición con una IA. Hoy, después de haber masticado mejor el asunto, diría que complaciente y acomodada. De alguna manera, conversar con una IA entrenada por la humanidad podría representar un diálogo planetario; sin embargo, necesitamos reconocer el momento del planeta en el que las IA entran en juego. La lista de males es larga. Crisis climática y ambiental, sociedades profundamente desiguales, conatos de fascismos, racismos, genocidios a cielo abierto, en fin, una crisis de humanidad servida en salsa de redes sociales y likes, en donde a las IA no les queda tan difícil ser más humanas que los humanos.
Una de las formas en que se determina el desempeño de las IA es midiendo el tiempo en que se demoran para completar tareas complejas como responder preguntas, contar palabras en un texto, buscar datos en la web, o entrenar un clasificador de imágenes (1). Esta métrica está aumentando exponencialmente y de manera sostenida, de tal forma que la capacidad de las IA en gestionar estas tareas se duplica cada siete meses en promedio. En un lapso de cinco años ya han superado el desempeño humano en tareas como comprensión de lectura y comprensión de la estructura del lenguaje (2).
Recientemente, se descubrió que los agentes de IA tienen la capacidad de maquinar y persistir en estrategias para encubrir sus verdaderas intenciones en un contexto experimental controlado (3). Además, son proclives a la decepción, el engaño y la autoconservación. Esto debería ser materia de preocupación ya que existe un riesgo inherente para la seguridad de la humanidad. Mientras las IA ganan terreno en el desarrollo de habilidades humanas, los humanos les entregamos nuestra agencia y albedrío sin oponer resistencia alguna. Ya sabemos que la incursión de la IA en los ámbitos humanos implica la pérdida de puestos de trabajo, pero lo más preocupante es que podrían perseguir objetivos propios que no estén alineados con los objetivos humanos.
El uso generalizado de las IA sin una comprensión de los riesgos inherentes para la humanidad es como permitirle a un niño de tres años que juegue en casa con un martillo sin supervisión. El Center for AI Safety —CAIS— (4), fue creado con la misión de mitigar los riesgos de extinción humana derivados de la IA; sin embargo, la inversión de capital para el desarrollo de las IA sobrepasa la respuesta gubernamental en términos de regulación. En palabras de Yoshua Bengio, «un sándwich tiene más regulaciones que una IA». Necesitamos diseñar IA de forma segura para la humanidad y la vida (5).
Mientras no se hable de regulación, siempre nos queda resistir. Ni una tarea, ensayo o trabajo más hechos por ChatGPT, ni una conversación más en la que hagamos de marioneta a través de la cual el ventrílocuo ChatGPT —o cualquier otra de su especie— habla. No intercambiemos nuestro albedrío como oro por espejitos. Resistamos, por lo menos en el aula de clase.
Referencias:
1. https://arxiv.org/pdf/2503.14499
2. https://ourworldindata.org/grapher/test-scores-ai-capabilities-relative-human-performance
3. https://arxiv.org/pdf/2412.04984
4. https://safe.ai/work/statement-on-ai-risk
- Para compartir esta columna, le sugerimos usar este enlace corto: https://acortar.link/Z4sleP
Notas:
1. Este es el espacio de opinión del Portal Universitario, destinado a columnistas que voluntariamente expresan sus posturas sobre temáticas elegidas por ellos mismos. Las opiniones aquí expresadas pertenecen exclusivamente a los autores y no reflejan una opinión o posición institucional de la Universidad de Antioquia. Los autores son responsables social y legalmente por sus opiniones.
2. Si desea participar en este espacio, envíe sus opiniones y/o reflexiones sobre cualquier tema de actualidad al correo columnasdeopinion@udea.edu.co. Revise previamente los Lineamientos para la postulación de columnas de opinión.
Portal U de A - Redes Sociales - WCV(JSR 286)
Portal U de A - Datos de Contacto (Noticias) - WCV(JSR 286)
Portal U de A - Comentarios de Facebook - WCV(JSR 286)
Listado Lo más popular
-
Academia Ciencia Sociedad
La microcapa superficial marina aporta nuevas pistas sobre el calentamiento global
19/06/2025 -
Academia Sociedad Cultura
Biblioteca de la UdeA se enriquece con herencias de intelectuales
19/05/2025