Cómo las grandes tecnológicas están construyendo el marco moral, operativo y político de la nueva era de la IA
Durante un tiempo, la conversación pública sobre inteligencia artificial ha estado dominada por una pregunta bastante simple: qué puede hacer la IA. Si escribe bien, si razona mejor, si programa más rápido, si resume documentos, si encuentra errores o si automatiza tareas antes reservadas a profesionales cualificados. Esa pregunta sigue siendo importante, pero ya no basta. Lo que está ocurriendo hoy es más profundo. La cuestión decisiva empieza a ser otra: qué marco se está construyendo alrededor de estos sistemas y quién lo está redactando.
Porque las grandes empresas tecnológicas ya no se limitan a lanzar modelos. Están publicando también políticas, constituciones, especificaciones de comportamiento, marcos de escalado, evaluaciones de riesgo y documentos donde intentan definir cómo deben actuar estos sistemas, cómo deben ser desplegados y hasta cómo deberían ser aceptados por la sociedad. Anthropic ha desarrollado una Responsible Scaling Policy, ha abierto una línea de trabajo sobre model welfare y ha publicado una constitución para Claude; OpenAI ha reforzado su Model Spec y ha empezado a hablar de acceso, agencia e incluso de la necesidad de nuevas instituciones para la era de la inteligencia; Meta ha actualizado su Advanced AI Scaling Framework para articular una gobernanza más técnica de riesgos y umbrales.
Este desplazamiento importa mucho más de lo que parece a primera vista. Cuando una empresa redacta una “constitución” para su modelo, cuando otra afirma que el acceso a una IA segura y confiable debería verse como un derecho, o cuando un laboratorio decide que ciertas capacidades obligan a nuevas salvaguardas antes del despliegue, ya no estamos solo en el terreno del producto. Estamos entrando en el terreno de la gobernanza, de la legitimación y del poder normativo. En otras palabras: no se está decidiendo únicamente cómo funciona una herramienta, sino bajo qué reglas operará una infraestructura que puede acabar entrando en el trabajo, la educación, la investigación, la administración y la vida cotidiana.
A esto se añade otro elemento decisivo: la transición del asistente al agente. Un chatbot más o menos avanzado ya no describe por sí solo el problema. Lo que empieza a extenderse es la figura del sistema capaz de planificar, usar herramientas, navegar, ejecutar código, coordinar tareas y sostener procesos más largos. Anthropic lo aborda directamente en sus textos sobre agentes confiables; Moonshot, con Kimi, empuja con fuerza la lógica de Deep Research y de los entornos agentivos; y documentos recientes sobre modelos de frontera muestran que la preocupación ya no gira solo en torno a respuestas incorrectas, sino en torno a autonomía, opacidad operativa, desalineación y control.
Sin embargo, no todos los actores avanzan del mismo modo. Ahí está una de las lecciones más interesantes del momento actual. Anthropic y OpenAI publican marcos normativos cada vez más visibles. Meta se orienta con más claridad hacia preparedness y evaluación de riesgos. DeepSeek introduce con fuerza el problema de los modelos open-weight y de la posible proliferación ofensiva de capacidades, mientras Kimi obliga a pensar otra cuestión: la dependencia de plataforma, la soberanía de los datos y la importancia de la jurisdicción cuando una IA agentiva empieza a concentrar documentos, workflows, navegación e investigación en una misma infraestructura. El mapa, por tanto, es más plural de lo que a veces parece.
Por eso me parece que la gran discusión no debería quedarse atrapada entre el entusiasmo y el miedo. No basta con celebrar la potencia de estos sistemas ni con repetir advertencias abstractas sobre el futuro. Lo que necesitamos es una lectura más atenta del presente. Necesitamos mirar qué categorías están apareciendo —constitución, bienestar del modelo, comportamiento público, acceso como derecho, preparedness, open weights, soberanía de los datos— y preguntarnos qué visión del ser humano, del control y de la sociedad llevan incorporada. Porque una vez que ese lenguaje se normaliza, también empieza a normalizarse el tipo de mundo que ese lenguaje hace pensable.
Ésa es, en el fondo, la razón de ser de “Antes de la persona artificial”. No he querido escribir un texto de fascinación tecnológica ni un panfleto alarmista. He querido hacer algo más útil: un mapa razonado para pensar con criterio qué tipo de relación quiere establecer una sociedad libre con inteligencias no humanas cada vez más poderosas. Antes de que el marco quede fijado por costumbre. Antes de que las palabras de otros se conviertan en nuestro horizonte sin que casi nos demos cuenta. Porque la gran cuestión ya no es sólo qué puede hacer la IA. La gran cuestión es quién está redactando el orden en el que esa IA va a operar.
