El futuro no está escrito: Inteligencia Artificial y sostenibilidad

1. Introducción

En los últimos años, el crecimiento de las tecnologías de inteligencia artificial (IA) ha ocupado un lugar cada vez más central en las conversaciones públicas. Circulan con frecuencia cifras sobre su impacto ambiental, artículos sobre los dilemas éticos de su desarrollo y opiniones sobre cómo sus usos se integran a distintos aspectos de nuestras vidas. En paralelo, especialmente en redes sociales, proliferan diagnósticos simplificados, cifras descontextualizadas, juicios apresurados, respuestas emotivas presentadas como certezas y denuncias fervorosas sobre los “peligros” (reales o supuestos) de estas tecnologías, como si fueran agentes autónomos surgidos en un vacío social.

No solo preocupan ciertos aspectos del desarrollo y uso de la IA, también inquieta la creciente tendencia a analizar fenómenos tan complejos desde miradas fragmentarias y reduccionistas. Estas lecturas tienden a recortar la complejidad de la situación y desvían la atención de los factores estructurales que sostienen lo que, con más precisión, podríamos llamar la problemática de la IA.

Muchas veces, estos discursos no son más que expresiones del desconcierto frente a transformaciones que nos atraviesan en múltiples planos, pero que pocas veces intentamos comprender en su totalidad.

Por eso, queremos avisar desde el inicio que este análisis se propone distinto al que predomina en redes sociales. Vamos a tomarnos un tiempo para pensar con más detenimiento, complejidad y responsabilidad. Procuraremos evitar lugares comunes y automatismos, para acercarnos con mayor claridad al entramado de relaciones técnicas, económicas, culturales y políticas que hacen posible la existencia de estas tecnologías y que determinan en gran medida cómo se desarrollan, para qué se usan y a quiénes benefician o perjudican.

Porque no se trata de defender, atacar, condenar ni encumbrar a la IA. Tampoco de evadir los efectos problemáticos de su desarrollo y aplicación. Se trata de entenderla en contexto: como parte de un modo de producción, de una forma de organizar la vida en común, de una cultura que se transforma y que reproducimos todos los días, muchas veces sin saberlo.

Todo intento serio de evaluar el impacto y la sostenibilidad de estas tecnologías debe partir de una premisa básica: no hay respuestas simples para problemas complejos. Y estos problemas no son exclusivamente tecnológicos: son también sociales, políticos, ecológicos y éticos. Si de verdad queremos construir una sociedad más justa y sostenible, no basta con criticar los síntomas: es imprescindible revisar las estructuras que los producen y los sostienen.

Este texto, entonces, es una reflexión. Un recorrido posible. No pretende ser exhaustivo, pero sí riguroso. Vamos a intentar descomponer el problema, mostrar sus piezas, entender cómo se articulan. Y sobre todo, asumir que si lo que vivimos es insostenible, es porque —con mayor o menor conciencia, por acción u omisión— lo hemos permitido colectivamente.

También es una invitación a imaginar otras formas de hacer las cosas. A construir una mirada más integral de lo que está en juego, que no se agote en el diagnóstico, sino que nos ayude a pensar otras maneras posibles de organizarnos y de habitar el mundo. Porque si hay algo urgente —y profundamente humano— es recordar que las cosas no tienen por qué seguir siendo como son. Para eso, primero, necesitamos entender dónde estamos parados.

2. ¿Qué es la “inteligencia artificial”?

Antes de seguir adelante, es importante aclarar a qué nos referimos cuando hablamos de inteligencia artificial. Para ello, decidimos preguntarle directamente a ChatGPT qué es la IA. Su respuesta fue:

¿Qué o quién soy? Soy ChatGPT, un modelo de lenguaje desarrollado por OpenAI. Mi función es procesar información textual, generar respuestas coherentes, ofrecer explicaciones y ayudar a organizar ideas a partir de los datos con los que fui entrenado.

¿Qué se entiende por inteligencia artificial?” En términos generales, la inteligencia artificial (IA) es el conjunto de tecnologías diseñadas para realizar tareas que tradicionalmente requerirían capacidades cognitivas humanas: interpretar información, reconocer patrones, aprender de la experiencia y tomar decisiones. Particularmente, hoy el término suele aplicarse a sistemas de aprendizaje automático (machine learning) y aprendizaje profundo (deep learning) que analizan grandes volúmenes de datos para identificar relaciones y generar respuestas adaptativas.

A diferencia de la inteligencia humana, que —como planteaba Jean Piaget, por ejemplo— implica procesos de construcción activa del conocimiento, de adaptación e interpretación creativa del entorno, la IA no tiene conciencia, intencionalidad ni comprensión. Sus capacidades emergen de algoritmos matemáticos que transforman entradas de datos en salidas predefinidas, basadas en correlaciones estadísticas, no en significados construidos subjetivamente. En el momento actual de su desarrollo, la IA es capaz de procesar información (muchísima), pero no de entenderla; puede generar respuestas, aunque su aprendizaje no se parece al humano; y se adapta a patrones, pero no a significados. Es decir: la IA no comprende el mundo, comprende el lenguaje sobre el mundo.

A lo largo de este texto, entonces, cuando hablemos de “inteligencia artificial” nos referiremos a sistemas diseñados para ejecutar tareas que tradicionalmente se asociaban a la inteligencia humana, pero que funcionan sin conciencia, comprensión ni intención.

2.a. ¿Desde cuándo usamos “inteligencia artificial”?

Lo que hoy llamamos IA no nació con ChatGPT ni con asistentes virtuales como Siri o Alexa. Llevamos siglos imaginando —y tratando de construir— artefactos que imiten ciertas capacidades humanas, como razonar, tomar decisiones o resolver problemas. Desde los autómatas mecánicos que tocaban música o simulaban comer hasta los primeros intentos de crear “máquinas que piensan” mediante fórmulas matemáticas en el siglo XX, la idea de delegar funciones cognitivas en tecnologías tiene raíces muy antiguas.

El término inteligencia artificial fue acuñado en la década de 1950, cuando algunos investigadores comenzaron a preguntarse si las máquinas podían aprender, entender o incluso conversar. Desde entonces, esta tecnología se ha expandido a múltiples ámbitos: desde los motores de búsqueda hasta los filtros de spam, los diagnósticos médicos, los sistemas de recomendación en plataformas de streaming o el reconocimiento facial. En efecto, venimos usando IA desde hace bastante más tiempo del que suele pensarse. Y cada vez que lo hacemos, participamos —nos guste o no— de un proceso que involucra desarrollo técnico, consumo de recursos y formas específicas de organización social a gran escala.

No es extraño, entonces, que la IA despierte un abanico de reacciones que va del asombro y la fascinación al temor y el rechazo. Tampoco que surjan dudas, críticas y alarmas. ¿Cuánta energía consume todo esto? ¿Qué impactos produce? ¿Quién se beneficia y quién paga los costos? ¿Vale la pena? Estas preguntas circulan con fuerza —especialmente en redes sociales— y suelen venir acompañadas de cifras llamativas: litros de agua por consulta, toneladas de materiales extraídos para fabricar chips, enormes emisiones de carbono por modelo entrenado, entre otras.

Por supuesto, se trata de preguntas legítimas. Pero si realmente queremos comprender lo que está en juego, necesitamos ir más allá de los números. No para descartarlos, sino para poder contextualizarlos. Porque los debates sobre la sostenibilidad y la utilidad de la IA no son solo técnicos ni puramente ambientales: nos obligan a preguntarnos cómo estamos organizados como sociedades para producir, utilizar, regular y dar sentido a lo que hacemos.

3. Inteligencia Artificial y sostenibilidad: dimensiones de un problema

Pensar el impacto de la inteligencia artificial en términos de sostenibilidad requiere, ante todo, identificar al menos cuatro grandes dimensiones que intervienen en su desarrollo y que se entrelazan y retroalimentan de forma constante.

a. Dimensión técnica

Cuando hablamos de inteligencia artificial, solemos pensar de inmediato en su dimensión técnica: los sistemas de aprendizaje automático, las redes neuronales, los modelos de lenguaje, la capacidad de procesamiento, los avances en visión computacional o robótica, por nombrar algunos ejemplos. Desde esta perspectiva, predomina la imagen de una tecnología que avanza gracias a descubrimientos científicos y desarrollos en ingeniería, como si siguiera exclusivamente lógicas internas de innovación y eficiencia.

Pero esa representación, aunque parcialmente cierta, resulta engañosa si se la aísla del contexto. La técnica no existe en el vacío. Cada decisión técnica —qué se investiga, qué se financia, qué se prioriza, qué se descarta— está atravesada por criterios sociales, económicos y políticos. El desarrollo tecnológico no es una línea recta guiada por el “progreso”, sino un camino lleno de bifurcaciones, marcadas por disputas, intereses y valores que operan en cada momento histórico. Incluso cuando no seamos plenamente conscientes, lo técnico está siempre permeado por lo cultural y lo político.

Así, cuando decimos que un modelo de IA requiere millones de datos y enormes cantidades de energía para entrenarse, no estamos hablando solo de una característica técnica, sino también de elecciones: cómo queremos que esa tecnología funcione, para qué fines, en qué escala y bajo qué supuestos.

La selección de una base de datos y no otra define no solo el rendimiento de un sistema, sino también los sesgos que reproduce, los valores que vehiculiza, los cuerpos que representa o excluye, las formas de vida que privilegia o ignora. Del mismo modo, el hecho de que operar un modelo de lenguaje requiera infraestructuras colosales no es simplemente una consecuencia inevitable: es el resultado de una serie de decisiones tecnológicas y económicas tomadas en un contexto donde la escala, la acumulación y el lucro ocupan el centro.

Podríamos investigar modelos más pequeños, más eficientes, con menor impacto ambiental. Pero en el marco actual, eso parece improbable. Porque lo que llamamos «dimensión técnica» es, en realidad, una expresión material de relaciones sociales, económicas y políticas. La sofisticación algorítmica, el diseño de interfaces, la arquitectura de los servidores, la extracción de minerales, el consumo de energía y agua: todo eso que solemos ver como meros aspectos técnicos son también huellas del modo en que nos organizamos como sociedad para producir conocimiento, tomar decisiones y asignar recursos.

La técnica, lejos de ser neutral, es una cristalización concreta de cómo concebimos —y ejecutamos— la vida en común.

b. Dimensión económica

Como venimos diciendo, la IA no es solo un conjunto de desarrollos técnicos: es también un fenómeno profundamente económico. Su despliegue actual está condicionado por las reglas del mercado, las lógicas de acumulación de capital y los intereses de quienes controlan los medios de producción tecnológica. No se trata solo de qué se puede hacer con la IA, sino de qué se hace efectivamente, quién lo financia, con qué objetivos y bajo qué condiciones ese conocimiento se convierte en producto o servicio.

Las plataformas más avanzadas que ofrecen servicios de IA no son creadas ni gestionadas por colectivos públicos o comunitarios, sino por grandes corporaciones transnacionales que operan bajo el régimen de competencia global y cuya motivación central es la rentabilidad. OpenAI, Google DeepMind, Microsoft, Amazon, Nvidia o Meta encarnan esta lógica. Desarrollan modelos que requieren infraestructuras colosales, financiamiento multimillonario, subsidios públicos, equipos científicos de élite y una posición dominante en la captura de datos, energía y atención.

Y esto no es casual. Es el reflejo de una forma de organización económica donde el conocimiento se convierte en ventaja competitiva y la tecnología en mercancía. La IA no se desarrolla porque sea intrínsecamente “buena para la sociedad”, sino porque puede aumentar la productividad, reducir costos laborales, ampliar mercados o generar nuevas vías de monetización. Incluso aquellas aplicaciones que aparentemente persiguen fines sociales —como las orientadas a la salud, la educación o el medioambiente— están, en la mayoría de los casos, atravesadas por las lógicas de inversión, retorno y explotación de mercado. La “filantropía” empresarial y el “tech for good” funcionan muchas veces como relatos legitimadores, más que como verdaderos proyectos de transformación social.

Además, la economía digital en la que se inscribe la IA reproduce lógicas extractivistas, no solo de recursos materiales —como energía, agua, litio o silicio— sino también de recursos intangibles: datos personales, tiempo de atención, conocimiento colectivo. Gran parte del valor que circula en el ecosistema de la IA proviene de una extracción sistemática de información generada por las propias personas usuarias, muchas veces sin su consentimiento explícito ni compensación alguna.

Desde esta perspectiva, la IA no aparece como una herramienta neutra, sino como un nodo estratégico en la continuidad de un modelo económico global profundamente desigual, en el que los beneficios se concentran en pocos actores y los costos —ambientales, laborales, cognitivos— se distribuyen de forma poco clara e injusta.

Por eso, hablar de sostenibilidad implica hablar también de redistribución. No hay sostenibilidad posible si el desarrollo tecnológico sigue operando bajo lógicas de concentración del capital, externalización de daños y privatización del conocimiento. Y no hay equidad si la IA se convierte en un instrumento más para intensificar la acumulación y la exclusión. Preguntarnos por el modelo económico que la sustenta es preguntarnos por el mundo que estamos ayudando a mantener. Y también por el que podríamos empezar a construir si decidiéramos colectivamente asumir otras prioridades.

Esta dimensión incluye además los marcos regulatorios: los sistemas jurídicos que definen qué es legal, qué constituye propiedad y qué puede hacerse con los datos o con el conocimiento generado por la IA. En este contexto, los datos personales —como la ubicación, los hábitos de consumo o nuestras búsquedas en línea— se han transformado en mercancías: se extraen, se clasifican y se venden. La privacidad, en términos estructurales, ha dejado de ser un derecho para convertirse en un insumo más para el lucro.

c. Dimensión política

La dimensión política de los problemas de sostenibilidad —y, en general, de cualquier fenómeno social— suele ser una de las más evidentes en apariencia, pero también de las más complejas para analizar en profundidad. A menudo la asociamos solo con decisiones gubernamentales o disputas entre partidos, como si la política fuera exclusivamente “lo que hacen los políticos”, cuando en realidad atraviesa todas nuestras prácticas y relaciones cotidianas.

Cuando hablamos de política, no nos referimos únicamente a partidos, elecciones o gobiernos, sino al conjunto de prácticas, decisiones y estrategias —individuales y colectivas— mediante las cuales organizamos la vida en común, distribuimos el poder, definimos normas y construimos nuestras relaciones sociales.

Desde esta perspectiva amplia, la manera en que estructuramos las relaciones entre personas, instituciones, tecnologías y naturaleza no es una consecuencia inevitable de la técnica o la economía, sino el resultado de decisiones políticas —algunas conscientes y explícitas, otras naturalizadas e invisibilizadas— que determinan qué intereses prevalecen, quién participa en esas decisiones y qué alternativas quedan disponibles o se cierran.

La política, en este sentido, es el escenario donde se define, disputa y reproduce el modo de producción capitalista, pero también el espacio donde pueden imaginarse y ensayarse formas distintas de organizar la vida colectiva.

En el contexto de la inteligencia artificial y su sostenibilidad, esto implica reconocer que no basta con mejorar la eficiencia técnica o corregir fallas de mercado. Es necesario preguntarnos, de modo político y colectivo, qué queremos priorizar como sociedad: ¿el lucro privado de unos pocos o el bienestar de las mayorías? ¿La aceleración tecnológica desenfrenada o un desarrollo guiado por criterios de justicia y sostenibilidad? ¿La concentración de poder en grandes plataformas o la democratización efectiva del conocimiento y las herramientas?

Toda elección política implica una forma de distribución: de recursos, oportunidades, riesgos y voces. Ignorar esta dimensión es condenarnos a ser meros consumidores o usuarios pasivos de un sistema que parece dado, pero que en realidad es producto de decisiones humanas, y por tanto susceptible de ser transformado.

d. Dimensión socio-cultural

El entorno socio-cultural en el que vivimos influye profundamente en nuestra percepción de la inteligencia artificial y, a la vez, modela la forma en que esta tecnología se despliega y se utiliza. Difícilmente se pueda separar la tecnología de las dinámicas sociales que la sostienen. Cuando hablamos de “sociedad”, nos referimos no solo a las relaciones humanas y las estructuras políticas que las organizan, sino también a la cultura, los valores, las normas, las creencias y las prácticas que compartimos. Por eso, la IA no es un fenómeno aislado, sino el resultado de decisiones políticas, económicas y culturales que muchas veces permanecen invisibles o fragmentadas.

d.1 El peso de los valores y las creencias

La manera en que recibimos y adoptamos los avances tecnológicos depende en gran medida de las narrativas que construimos alrededor de ellos. Tradicionalmente, en nuestra cultura las historias sobre el futuro han sido lineales y optimistas: la tecnología, incluida la IA, se presentaba como la solución a todos nuestros problemas. Sin embargo, en la actualidad esa narrativa convive con una sensación creciente de distopía en ciernes, donde la IA también es vista como una fuente de riesgos, pérdidas de control y amenazas a nuestras formas de vida.

Este contraste refleja la complejidad de nuestras creencias y emociones sobre la tecnología. Las promesas de progreso tecnológico continúan repitiéndose, pero cada vez más acompañadas por inquietudes legítimas sobre las consecuencias sociales, económicas y ecológicas que podrían derivarse. Así, las narrativas sobre la IA oscilan entre el entusiasmo y el temor, configurando un escenario cultural donde las expectativas y las ansiedades se mezclan y se influyen mutuamente.

d.2 La polarización y el “entendimiento binario”

Un fenómeno clave en torno a la IA (y en general alrededor de cualquier tema últimamente) es la polarización de las opiniones. En redes sociales y medios, la inteligencia artificial se presenta a menudo en términos binarios: es buena o es mala, útil o peligrosa. Esta visión simplificada alimenta divisiones sociales y estanca el debate público, dificultando la búsqueda de respuestas matizadas y colaborativas a los desafíos que plantea la IA. Así, se profundizan tensiones entre quienes la ven como amenaza y quienes la consideran una herramienta para mejorar nuestras vidas. Esta falta de diálogo constructivo refuerza la falsa idea de que los problemas tecnológicos y sociales son simples, cuando en realidad son complejos y requieren análisis profundos.

d.3 La crítica a la participación y el involucramiento

Otro aspecto central es cómo nos relacionamos con la tecnología y qué tan conscientes somos del impacto de nuestra participación. Compartir una publicación en redes sociales es una forma de involucramiento, pero muchas veces se limita a la queja o denuncia sin acción concreta. En lugar de cuestionar a fondo las estructuras socioculturales y tecnológicas que nos configuran, caemos en respuestas reactivas. El “entendimiento binario” alimenta este ciclo, promoviendo la idea errónea de que una postura simplificada basta para enfrentar problemas complejos. Así, la participación en el debate sobre la IA se convierte en muchas ocasiones en un ejercicio de validación personal o ideológica, más que en un espacio genuino de transformación.

d.4 La importancia de una cultura de colaboración y conciencia crítica

Por eso es urgente fomentar una cultura de participación activa y consciente, donde el vínculo con la tecnología —y en particular con la IA— no sea un consumo pasivo de información, sino un ejercicio constante de reflexión crítica. Esto implica asumir responsabilidad por nuestras acciones, incluso aquellas que parecen pequeñas, como compartir o defender una posición. Necesitamos ir más allá de los “likes” y las reacciones rápidas para pensar, de forma colectiva, cómo nos afecta lo que sucede en nuestro entorno y qué podemos hacer al respecto. Si nuestra relación con la tecnología es pasiva, la tecnología dominará. Pero si logramos construir un vínculo activo, crítico y consciente, podremos moldearla para que responda mejor a nuestros valores y necesidades comunes.

4. La realidad como producto del entrelazamiento de las dimensiones

Aunque hemos diferenciado estas dimensiones para facilitar el análisis, en la práctica no operan por separado. Están profundamente entrelazadas, hasta el punto de que a menudo resulta difícil saber por dónde comenzar a desarmar o abordar el problema.

Las publicaciones que mencionábamos al principio —que reducen todo a cifras de consumo energético, estudios experimentales o a críticas simplificadas a las corporaciones tecnológicas— son una expresión clara de esta confusión. Expresan una necesidad legítima de cuestionar, pero carecen del andamiaje conceptual necesario para comprender cómo se articulan y se condicionan mutuamente estas dimensiones. Por eso, no pueden ofrecer soluciones acordes a la complejidad real que enfrentamos.

Lo que intentamos mostrar es que cualquier camino hacia una mayor sostenibilidad requiere transformaciones profundas, no solo en la forma en que desarrollamos tecnología, sino en la manera en que organizamos nuestra vida en común. Eso implica decisiones políticas, jurídicas, económicas y culturales interrelacionadas. Y, sobre todo, exige asumir que no somos solo víctimas del sistema; también lo sostenemos cada vez que elegimos no cuestionarlo ni actuar para cambiarlo.

a. Responsabilidades

Frente a la complejidad de los problemas que hemos descrito, es común sentirse abrumados. ¿Qué podemos hacer ante estructuras tan grandes, arraigadas y resistentes al cambio? Esa sensación —comprensible y humana— no puede ser excusa para la inacción. Porque, aunque no todos tengamos el mismo poder de decisión, todos participamos de alguna manera en la reproducción del estado actual de las cosas.

Las estructuras que consideramos injustas o insostenibles se sostienen, precisamente, por nuestras prácticas cotidianas: las elecciones de consumo, las normas que aceptamos sin cuestionar, las tecnologías que adoptamos sin preguntarnos a qué lógica responden. Nuestra responsabilidad no radica en haber creado el problema, sino en aceptar pasivamente su continuidad.

Esto no es un reproche individual ni una invitación a perseguir y culpar a las personas por usar una aplicación o consumir contenido sin conocer todos los impactos. Se trata de algo más amplio: asumir que vivimos en un entramado colectivo donde nuestras vidas están profundamente entrelazadas, y que ningún cambio real será posible sin una conciencia también colectiva.

Hablar de responsabilidad colectiva no significa que todos tengamos la misma responsabilidad. Existen actores con poder desproporcionado que concentran recursos, imponen agendas y diseñan tecnologías según sus intereses. Pero, frente a esas asimetrías, tenemos la posibilidad —y la urgencia— de imaginar otras formas de organización social más justas, sostenibles y solidarias.

Para lograrlo, es necesario revisar los vínculos que tejemos no solo entre personas, sino también entre personas y tecnología, y entre personas y los marcos legales e institucionales que organizan nuestras vidas. No podemos seguir pensando estos elementos como separados: son parte de un mismo sistema.

Repensar el futuro implica, por ejemplo:

  • Cuestionar las leyes que protegen el extractivismo digital.
  • Exigir marcos regulatorios que consideren los datos como bienes comunes.
  • Diseñar tecnologías que prioricen el cuidado, el bienestar y el tiempo compartido, no solo la eficiencia o la rentabilidad.

La sostenibilidad no es una condición técnica: es una elección política, ética y cultural. Es la posibilidad de vivir de una manera que garantice una vida digna para cualquier persona, ahora y en el futuro.

b. Construcción de posibilidades

Ya sabemos que vivimos en un momento crítico, donde las decisiones que tomemos como individuos y como sociedad tendrán consecuencias profundas y duraderas. Las dimensiones que hemos explorado —tecnológica, económica, cultural, política— no son entidades aisladas: son fuerzas entrelazadas que configuran la realidad que habitamos. La responsabilidad no recae solo en unos pocos; es un desafío colectivo que todos debemos enfrentar.

Ahora bien, si algo nos muestran esas dimensiones, especialmente cuando las analizamos en conjunto, es que la forma actual de organizar la economía y la producción tecnológica —basada en la acumulación, la competencia y la extracción permanente de valor— impone límites estructurales a la sostenibilidad real. No se trata solo de hacer mejor las cosas dentro del sistema, sino de reconocer que el sistema mismo está en el centro del problema.

Dicho de otra manera: no es posible sostener la IA —ni casi ningún desarrollo tecnológico a gran escala— bajo las lógicas del capitalismo global sin profundizar desigualdades, devastar ecosistemas y socavar nuestras condiciones de vida colectiva. Y mientras esas lógicas sigan operando como eje rector, los beneficios del desarrollo seguirán concentrándose en unos pocos, y los costos distribuyéndose de manera difusa y muy injusta.

Eso no significa que debamos abandonar toda esperanza. Al contrario: si no hay sostenibilidad sin transformación estructural, entonces la tarea es mucho más urgente y más profunda. Y también más colectiva.

Estamos mucho más conectados —y somos más capaces— de lo que percibimos. Cada decisión y cada acción, por pequeña que parezca, forma parte del entramado que puede abrir nuevas posibilidades. No se trata solo de rechazar lo existente, sino de imaginar y construir alternativas: formas distintas de producir, de consumir, de vincularnos, de compartir conocimiento y de tomar decisiones.

Eso requiere involucrarnos, formar redes de colaboración, disputar el sentido común, exigir cambios en las estructuras de poder y comprometernos con formas de vida más equitativas, más conscientes, más cuidadosas.

La sostenibilidad, en este contexto, no es una meta técnica ni una reforma superficial: es una disputa cultural, política y civilizatoria. Y como toda disputa, exige participación, imaginación y decisión colectiva.

Como se leía en la tapa de Know your rights, de The Clash: el futuro no está escrito. Podemos contribuir a escribirlo de otra manera. Y si bien no hay garantías, hay algo profundamente humano en intentarlo. Porque, como dijimos, todo empieza con una conversación, una reflexión, una decisión de no seguir repitiendo lo insostenible. Desde ahí, con otros, no solo podemos, tenemos que cambiar las reglas del juego y abrir caminos hacia un futuro más justo y vivible para todas las personas.

5. Repensar la responsabilidad colectiva

Al final de este recorrido, queda algo claro: las estructuras que hoy consideramos injustas, insostenibles o dañinas para el bienestar colectivo no aparecieron de la nada. Son el resultado de decisiones humanas —explícitas o naturalizadas— y, por lo tanto, también de nuestras omisiones. En mayor o menor medida, todos participamos de su reproducción, a veces sin saberlo, a veces con resignación, a veces con una mezcla de comodidad, desconcierto o impotencia.

La responsabilidad no recae exclusivamente sobre unos pocos actores poderosos, aunque estos concentren recursos y capacidad de decisión de manera desproporcionada. La responsabilidad es colectiva no porque esté equitativamente distribuida, sino porque el sistema mismo funciona sobre nuestra participación, nuestro consentimiento tácito, nuestras rutinas y nuestras formas de pensar el mundo.

Frente a esta realidad, es comprensible sentirse abrumado. La magnitud del problema —económico, político, técnico, ecológico— puede llevarnos a buscar salidas simples: cifras impactantes, afirmaciones rotundas, posicionamientos morales que nos tranquilicen. Pero, como hemos señalado, esa simplificación solo contribuye a reforzar un entendimiento binario que fragmenta el debate, obstaculiza el diálogo y evita hacernos las preguntas de fondo.

Denunciar está bien. Pero no alcanza. La crítica, para ser transformadora, necesita sostenerse en una comprensión profunda del entramado en el que vivimos. Necesita abrir horizontes posibles, no solo señalar el colapso.

Y es ahí donde aparece la pregunta crucial: ¿qué hacemos con lo que sabemos?

La respuesta que propone el poder es individualista y no podemos validarla. Solo desde una perspectiva colectiva —que reconozca la diversidad de actores, saberes, contextos y capacidades— podremos repensar los vínculos que sostenemos con la tecnología, con el entorno, con los marcos legales que regulan nuestra vida, y con los otros.

Pero esa colectividad no será espontánea. Tendremos que construirla. Tendremos que asumir que no hay sostenibilidad real mientras la lógica que organiza nuestras sociedades siga siendo la de la acumulación, la competencia y la extracción permanente de valor, tanto material como simbólico. En ese marco, no hay desarrollo tecnológico que pueda ser verdaderamente justo, ni IA que pueda sostenerse sin multiplicar los daños.

Lo urgente, entonces, es imaginar —y empezar a construir— otra cosa: formas de organización social, económica y técnica que prioricen el bienestar colectivo, la justicia distributiva, el cuidado de lo común y la posibilidad de una vida digna para la mayor cantidad posible de personas, hoy y en el futuro.

Eso no se logra con una sola acción, ni con una consigna, ni con una tecnología milagrosa. Se construye desde la conversación honesta, el pensamiento riguroso, el involucramiento consciente, y la voluntad —personal y colectiva— de no seguir sosteniendo lo que sabemos que no funciona.

No hay garantías. Pero tampoco hay inevitabilidades. Una de las características que nos distingue como seres humanos es nuestra capacidad de elegir. Podemos elegir no seguir repitiendo lo mismo. Podemos repensar. Podemos rehacer. Y quizás, solo quizás, podamos también empezar a habitar el mundo de otra manera.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio