La revolución de la inteligencia artificial (IA), más que un avance tecnológico, está redefiniendo silenciosamente la distribución global del poder. Las empresas que lideran este cambio —OpenAI, Anthropic y Google DeepMind— se han convertido en actores políticos, económicos, y culturales, capaces de moldear mercados, sistemas educativos, estrategias gubernamentales, e incluso imaginarios colectivos.
La entrevista entre Gustavo Entrala y Karen Hao —periodista de investigación y una de las voces más influyentes en el análisis crítico de la IA— ilumina con inusual claridad los mecanismos internos, tensiones, y estructuras de poder que sostienen esta industria. La mirada de Hao, que ha documentado durante años las prácticas de Silicon Valley y fue la primera reportera en ingresar en OpenAI en 2019, desafía la narrativa triunfalista que domina la conversación pública.
Su diagnóstico, aunque matizado, es firme: estamos ante la consolidación de “imperios de IA” cuya escala e influencia no encuentran precedentes en la historia de la tecnología.
I. La génesis de un nuevo poder corporativo
Cuando OpenAI nació en 2015 como una organización sin ánimo de lucro dedicada a “garantizar que la inteligencia artificial general beneficie a toda la humanidad”, pocos imaginaron que en menos de una década se convertiría en uno de los centros de poder tecnológico más influyentes del planeta.
Hao insiste en que este relato idealista —alimentado por figuras carismáticas como Sam Altman, Elon Musk, y Greg Brockman— ha funcionado como un dispositivo de legitimación, pero no refleja la complejidad real de la organización, ni sus derivas estratégicas.
De laboratorio filantrópico a gigante comercial
En 2019, OpenAI adoptó una estructura híbrida sin precedentes:
- una non-profit en la cúspide, propietaria de la misión;
- un brazo comercial for-profit capped que permite atraer capital sin renunciar a una narrativa ética.
Esta dualidad ha generado tensiones internas visibles —como la crisis de gobernanza de Noviembre de 2023— y una opacidad creciente sobre quién toma realmente las decisiones. Según Hao, el modelo, lejos de democratizar la IA, ha permitido acelerar una concentración de poder en un mercado donde las barreras de entrada son colosales.
II. El trabajo que no se ve y el coste que nadie quiere pagar
Una de las áreas donde la disonancia entre discurso y práctica es más evidente es la cadena de producción de la IA.
1. Los trabajadores invisibles
Los modelos como GPT-4 o GPT-5 dependen de millones de datos anotados y moderados manualmente por trabajadores externalizados. Estos empleados, ubicados en países como Kenia, India, Uganda, Uruguay o Filipinas, realizan tareas que incluyen:
- identificar lenguaje violento o racista;
- catalogar contenido sexual perturbador;
- corregir errores lingüísticos;
- clasificar emociones, intenciones, y estilos.
Todo ello bajo presión de tiempos estrictos, con compensaciones mínimas y, en ocasiones, exposición prolongada a material traumático.
La paradoja es evidente: los sistemas más avanzados del mundo se sostienen sobre formas de trabajo que recuerdan a industrias del siglo XX.
2. El impacto ambiental
Entrenar modelos de gran escala implica:
- consumo eléctrico equivalente al de ciudades enteras;
- uso intensivo de agua para refrigeración;
- la huella de carbono de la fabricación y logística de GPUs;
- la construcción de megacentros de datos de alto coste energético.
Los grandes modelos lingüísticos no son meras líneas de código: son infraestructuras masivas con ciclos de vida complejos.
III. La ideología de Silicon Valley: entre la utopía y el dogma
Hao y Entrala coinciden en un punto crucial: en el corazón de Silicon Valley se ha consolidado una ideología casi religiosa en torno a la “inteligencia artificial general” (AGI).
Esta creencia sostiene que:
- la AGI es inevitable,
- traerá beneficios extraordinarios para la humanidad,
- y su desarrollo debe acelerarse, no frenarse.
El problema, según Hao, es que esta narrativa reduce la complejidad del debate ético y desplaza el escrutinio público. La fe en una salvación tecnológica oculta factores clave:
- quién controla los sistemas,
- quién se beneficia económicamente,
- qué riesgos emergentes se aceptan,
- y qué grupos sociales absorben los costes.
IV. Tres imperios, tres modelos: OpenAI, Anthropic y Google DeepMind
Para comprender la dinámica actual del sector es útil comparar los tres grandes actores que definen el ritmo de la innovación.
1. OpenAI: velocidad, expansión y narrativa global
OpenAI domina el espacio público gracias a su agresiva estrategia de producto:
- ChatGPT se convirtió en el producto tecnológico de crecimiento más rápido de la historia,
- su ecosistema de APIs está integrado por millones de empresas,
- su imagen pública está cuidadosamente gestionada.
Ventajas estratégicas
- Lanzamientos rápidos y masivos.
- Enorme base de usuarios.
- Capacidad de influir en regulaciones antes de que existan.
- Aislamiento mediático gracias a su aura de “misión humanitaria”.
Debilidades
- Dependencia del capital de Microsoft.
- Tensiones internas en torno a gobernanza y seguridad.
- Críticas sobre opacidad y falta de auditorías externas.
OpenAI es, en esencia, el actor más visible y políticamente influyente.
2. Anthropic: el “instituto ético” que nació de una ruptura
Anthropic fue fundada por exmiembros de OpenAI —liderados por Dario y Daniela Amodei— que abandonaron la organización alegando desacuerdos por prioridades comerciales frente a la seguridad.
Su modelo se basa en:
- desarrollo de IA con enfoque en “constitucionalidad”; énfasis en controles, alineamiento, y supervisión;
- menor ritmo de despliegue público.
Ventajas
- Narrativa clara de seguridad y responsabilidad.
- Buena interlocución con gobiernos y reguladores.
- Modelos sólidos y estables, especialmente en tareas analíticas.
Debilidades
- Escala menor.
- Menor impacto comercial inmediato.
- Dependencia de grandes inversores (Amazon, Google).
Anthropic representa la corriente más “institucional” del sector.
3. Google DeepMind: la potencia científica
DeepMind, ahora fusionada operativamente con Google Brain bajo el nombre Google DeepMind, es quizá la institución con mayor credibilidad científica de la industria.
Sus hitos —AlphaGo, AlphaFold, Gemini— la sitúan en una liga distinta: una organización capaz de combinar investigación fundamental con productos a gran escala.
Ventajas
- Enorme capacidad computacional.
- Talento científico único.
- Integración nativa con productos globales (Search, Android, YouTube).
Debilidades
- Estructura corporativa pesada.
- Reputación dañada por casos de privacidad en el pasado.
- Menos agilidad que OpenAI en el despliegue público.
DeepMind es el actor más maduro, pero también el más condicionado por una gran corporación.
V. La carrera geopolítica: más que empresas, nuevos Estados tecnológicos
La presencia de estas empresas en negociaciones gubernamentales, foros multilaterales, grupos de expertos, y tratados emergentes de IA sugiere una transición en curso: las corporaciones tecnológicas están adquiriendo funciones históricamente reservadas a los Estados.
Controlan:
- infraestructuras críticas,
- recursos computacionales escasos,
- datos poblacionales,
- talento global altamente especializado,
- y modelos que pueden influir en elecciones, educación y economía.
Hao advierte que esto plantea una pregunta fundamental: ¿Quién gobierna realmente la inteligencia artificial?
Ni los reguladores nacionales ni las instituciones internacionales parecen capaces de seguir el ritmo.
VI. Lo que está en juego: educación, trabajo, y soberanía digital
El impacto de la IA se materializará en tres campos determinantes.
1. La educación
Los modelos lingüísticos ya median la forma en que millones de estudiantes escriben, investigan, aprenden, y procesan información. Esto plantea dilemas:
- ¿se homogeneizará la producción de conocimiento?
- ¿qué sesgos arrastrarán los sistemas?
- ¿quién controlará la arquitectura cognitiva del futuro?
2. El mercado laboral
Aunque la IA promete aumentos de productividad, también amenaza con automatizar profesiones que antes parecían inmunes:
- programadores,
- traductores,
- diseñadores,
- analistas financieros, educadores.
La transición será desigual y requerirá políticas activas, no discursos triunfalistas.
3. Soberanía digital
Los países que no desarrollen modelos propios dependerán tecnológicamente de empresas extranjeras. Esto afecta:
- capacidad regulatoria,
- autonomía cultural,
- privacidad de datos,
- seguridad nacional.
VII. Una advertencia urgente
La conversación entre Karen Hao y Gustavo Entrala no es un alegato pesimista: es un llamado a la responsabilidad.
La periodista no pide detener la innovación, sino iluminar sus zonas oscuras:
- quién paga el precio,
- quién captura los beneficios,
- qué riesgos se asumen sin debate público,
- qué tipo de mundo estamos construyendo.
Porque la IA no es sólo un avance técnico: es un nuevo pacto social.
Y ese pacto aún no ha sido negociado.

