IA fragmentada: entre soberanía, control y riesgo
IA fragmentada: entre soberanía, control y riesgo
«La llamada inteligencia artificial general —IAG— nació con la ambición de imitar toda la mente humana. No un asistente puntual, no una máquina especializada, sino un sistema capaz de aprender cualquier tarea, adaptarse a cualquier contexto, crear, decidir, inventar. El atractivo es enorme. Una mente artificial que nunca duerme, que combina toda la información disponible y que responde con una velocidad imposible para nosotros. Pero esa misma amplitud es su condena. Porque una IAG controlada por una empresa o un gobierno no es solo una herramienta. Es un poder concentrado».
«Primero moldeamos nuestras herramientas, y luego nuestras herramientas nos moldean a nosotros». Marshall McLuhan
La discusión sobre inteligencia artificial ya no es sobre promesas futuras. Todos saben de sus ventajas y de sus riesgos. Todos han oído hablar del impacto social, de la amenaza al empleo, del costo ecológico, del poder desmedido que acumulan unas pocas empresas. El tema ahora es distinto. No es el mito del titán que roba el fuego, ni la fábula del hombre que firma un pacto con el demonio. Lo nuevo es que se está buscando fragmentar el poder mismo de la inteligencia artificial. No destruirlo. No detenerlo. Hacerlo manejable.
La llamada inteligencia artificial general —IAG— nació con la ambición de imitar toda la mente humana. No un asistente puntual, no una máquina especializada, sino un sistema capaz de aprender cualquier tarea, adaptarse a cualquier contexto, crear, decidir, inventar. El atractivo es enorme. Una mente artificial que nunca duerme, que combina toda la información disponible y que responde con una velocidad imposible para nosotros. Pero esa misma amplitud es su condena. Porque una IAG controlada por una empresa o un gobierno no es solo una herramienta. Es un poder concentrado que ninguna democracia ha sabido manejar.
El problema no es que la IAG sea mala. No tiene moral. El problema es que los humanos tenemos un récord pésimo cuando recibimos poderes así. Lo usamos para someter, para vigilar, para enriquecernos sin límites. El sueño de una máquina que piensa como nosotros termina chocando con nuestra incapacidad para gobernar lo que creamos.
Por eso aparecen nuevos intentos de contención. Dos proyectos todavía embrionarios, más rumores que realidades, pero ya circulan en el debate y están muy bien financiados. El primero se llama Self-Sovereign Intelligence, o SSI. La idea es que cada comunidad, cada país, incluso cada individuo, pueda tener su propia inteligencia artificial soberana. No depender de un centro único, sino de instancias locales gobernadas por reglas propias. En lugar de una inteligencia universal, muchas inteligencias acotadas.
El segundo proyecto se llama Thinking Machines —TM—. Su lógica es distinta, aunque persigue lo mismo. No un cerebro central, sino una red de pequeños cerebros especializados. Cada uno con tareas limitadas, cada uno con capacidad de cooperar, pero sin abarcarlo todo. Una arquitectura modular o atomizada que busca seguridad por dispersión. Si un nodo falla o se corrompe, no colapsa todo el sistema.
Ambos intentos, SSI y TM apuntan a lo mismo. Atomizar la IAG. Evitar que un solo sistema se convierta en amo absoluto. El argumento es fuerte: fragmentar no solo es más seguro, también es más preciso. Una IA acotada se equivoca menos, responde con mayor rapidez y puede ser auditada con más facilidad. Una IAG, en cambio, tiende a la opacidad y al error masivo: una falla central repercute en todo.
Pero aquí surge la paradoja. Una SSI o una TM puede proteger la soberanía de un país, pero también reforzar su autoritarismo. Puede dar independencia frente a corporaciones extranjeras, pero también permitir vigilancia total sobre sus ciudadanos. Como pasó con internet. Nació descentralizado, abierto, libre. Terminó atrapado por monopolios privados y redes ilegales. La fragmentación no garantiza ética, solo distribuye riesgos.
En Europa, Albania presentó a Diella, una asistente virtual diseñada para vigilar contratos públicos y contener la corrupción. Más que una fiscal implacable, es un experimento que cruza política y tecnología en un país donde la corrupción es proverbial.Al mismo tiempo, consorcios europeos como Falcon, Datacros y ACT Ai prueban sistemas capaces de rastrear estructuras de propiedad opaca y señalar contratos sospechosos en segundos. La promesa deslumbra: patrimonios ocultos, intermediarios turbios, anomalías financieras que saltan a la vista con solo pulsar un botón. Pero la pregunta no tarda en asomar. ¿Quién controla al controlador? ¿Quién asegura que la máquina no sea usada para vigilar opositores, periodistas, activistas? Lo que parece un salto hacia la transparencia puede convertirse, sin freno ético y sin contención, en una sofisticada herramienta de represión.
Estas tensiones se entienden mejor si miramos la historia reciente. Primero vino el asombro: la singularidad tecnológica, el fin del trabajo humano, la superinteligencia. Después, la adopción acrítica: ChatGPT, Bard, Gemini, Copilot, DeepSeek. Fascinación global, dependencia creciente, usos cotidianos. Luego, la alarma: llamados a pausas, foros internacionales, miedo a armas autónomas, sesgos judiciales, manipulación electoral. Y ahora, la contención. No es esperar milagros ni regular con papeles lo que avanza con fuego, sino dividir, modular y encapsular, como proponen SSI y TM.
El paralelo con internet es inevitable. Una utopía libertaria en los noventa. Monopolio de big tech en los dos mil. Campo de batalla geopolítico en los veinte. La IA corre la misma suerte, pero a velocidad multiplicada. Cada error se expande en tiempo real. Cada avance es irreversible.
Los defensores de SSI y TM aseguran que esta vez será distinto. Que al dividir evitamos la concentración. Que al modular evitamos el error masivo. Que una red de inteligencias especializadas será más transparente, más justa, más útil. Y sin duda hay avances técnicos que lo respaldan.
Sus creadores —Ilya Sutskever y Mira Murati— no vienen de la nada. Son cofundadores e investigadores que alguna vez tendieron puentes con Sam Altman en el arranque de OpenAI, y que luego se apartaron al ver cómo la promesa de ciencia abierta se transformaba en modelo corporativo cerrado. Han rechazado ofertas de gigantes como Zuckerberg, temerosos de que su trabajo acabe siendo otro engranaje en el utilitarismo de las élites. Sus trayectorias son menos espectaculares que las de los magnates de Silicon Valley, pero su obsesión ha sido constante: diseñar sistemas que no respondan a la lógica del monopolio, sino a la cooperación distribuida. Allí se sostienen SSI y TM: en el intento de que la inteligencia no sea propiedad de unos pocos, sino una herramienta para muchos.
Pero el núcleo del problema no está ahí. Está en lo que somos. Porque podemos crear la arquitectura más segura, el diseño más preciso, el algoritmo más eficiente. Y aun así lo entregamos a gobiernos corruptos, a empresas sin escrúpulos, a mafias que compran tecnología como quien compra armas. El dilema no es técnico. Es ético. Y ahí somos impresentables.
Por eso los dos proyectos son ensayos, no soluciones. Todavía no existen. Apenas se delinean como posibilidades. Y aunque lleguen a funcionar, no garantizan justicia ni equidad. SSI puede convertirse en soberanía digital o en dictadura digital. TM puede reducir errores o multiplicar desigualdades según quién posea los nodos más potentes. Ya veremos.
El futuro inmediato se juega en cuatro dilemas. Gobernanza: quién manda sobre las máquinas. Control: quién audita lo que producen. Contención: cómo evitar que un error local se vuelva catástrofe global. Límites: qué usos se permiten y cuáles no, aunque sean rentables.
No es un debate lejano. Es el que definirá si la IA será chispa creadora o volcán destructor. Si será herramienta de equidad o de exclusión. Lo decisivo no es el código, sino el marco político y ético. Y ahí es donde tropezamos siempre.
La inteligencia artificial no va a desaparecer. La IAG seguirá como horizonte. SSI y TM buscarán domesticarla. Lo que decidirá el rumbo no son las máquinas, somos nosotros. Podemos fragmentar la tecnología, pero no hemos aprendido a fragmentar nuestra codicia y naturaleza.
Ese es el verdadero riesgo. Que terminemos usando mil inteligencias fragmentadas para servir a un mismo patrón de siempre: el poder concentrado, la riqueza sin control, la vigilancia sin límites. Lo que falta no es técnica. Es carácter.
• * Investigador en ciencias de la salud y observador de asuntos globales
• Para compartir esta columna, le sugerimos usar este enlace corto: https://acortar.link/kwJMyC
Notas:
1. Este es el espacio de opinión del Portal Universitario, destinado a columnistas que voluntariamente expresan sus posturas sobre temáticas elegidas por ellos mismos. Las opiniones aquí expresadas pertenecen exclusivamente a los autores y no reflejan una opinión o posición institucional de la Universidad de Antioquia. Los autores son responsables social y legalmente por sus opiniones.
2. Si desea participar en este espacio, envíe sus opiniones y/o reflexiones sobre cualquier tema de actualidad al correo columnasdeopinion@udea.edu.co. Revise previamente los Lineamientos para la postulación de columnas de opinión.
Portal U de A - Redes Sociales - WCV(JSR 286)
Portal U de A - Datos de Contacto (Noticias) - WCV(JSR 286)
Portal U de A - Comentarios de Facebook - WCV(JSR 286)
Listado Lo más popular
-
Sociedad Deporte
Delegados de Conmebol y Uefa visitaron la UdeA para fortalecer licenciamiento de entrenadores
15/09/2025 -
Academia Ciencia Sociedad
Con dos nuevos convenios, Minsalud, Minciencias y la UdeA refuerzan la producción pública de medicamentos en Colombia
30/07/2025