La IA no és una eina. És un nou tipus d'actor
Article d'opinió de Carlos Salinas — Cap de Plataformes Digitals, Estating a Andorra
Durant molt de temps, la pregunta sobre la intel·ligència artificial era senzilla: fins on pot arribar una màquina fent allò que li diem que faci?
Era la pregunta correcta per a una generació de sistemes dissenyats per executar tasques definides. No ho és per a la generació actual.
La distinció que avui importa no és entre màquines ràpides i màquines lentes, ni entre sistemes intel·ligents i sistemes estúpids.
La distinció que reconfigurarà les organitzacions, les economies i la distribució del poder en els propers anys és una altra: la diferència entre un sistema que respon i un sistema que actua.
La intel·ligència artificial generativa — els models de llenguatge que han popularitzat eines com ChatGPT, Gemini o Claude — ha posat sobre la taula una capacitat nova: generar text, codi, imatges i anàlisis de qualitat comparable a la humana. Ha estat una transformació real. Però és, fonamentalment, un sistema de resposta.
Li fas una pregunta, et dona una resposta. Li demanes un document, te'l redacta. L'humà continua sent qui inicia, qui decideix, qui executa.
El que comença a emergir ara és d'una naturalesa diferent. La IA agèntica no espera que li facis una pregunta. Planifica. Descompon un objectiu complex en subobjectius, selecciona les eines necessàries per assolir-los, executa accions en sistemes externs — correus, bases de dades, plataformes, APIs — i ajusta la seva estratègia en funció dels resultats que obté. No és un assistent que redacta. És un agent que opera.
Això no és ciència ficció. Avui ja existeixen sistemes agèntics desplegats en entorns corporatius que gestionen processos de recerca, executen tasques de programari, coordinen fluxos de treball i prenen decisions operatives sense intervenció humana en cada pas. La diferència respecte al que coneixíem fa tres anys no és incremental — és categòrica.
I aquí és on la pregunta tecnològica es converteix en una pregunta política.
Quan un sistema pot actuar de manera autònoma per assolir objectius, la cadena de responsabilitat es complica de manera significativa. Qui és responsable quan un agent d'IA executa una acció que causa un perjudici?
L'empresa que ha desplegat el sistema? El proveïdor del model? L'equip que ha definit l'objectiu? La resposta no és òbvia, i els marcs legals existents no estan preparats per a aquesta pregunta perquè van ser dissenyats per a un món on els agents eren exclusivament humans o organitzacions humanes.
Hi ha una segona implicació que sovint s'oblida: la velocitat. Un sistema agèntic pot executar en minuts seqüències de decisions que a un equip humà li costarien dies.
Això és potencialment molt valuós — i potencialment molt perillós. La velocitat d'execució sense supervisió adequada no és eficiència. És risc comprimit en temps real.
Els sistemes agèntics també aprenen a col·laborar entre ells. Diverses IAs coordinant-se per assolir objectius compartits, distribuint tasques, compartint informació i optimitzant resultats de manera conjunta, és ja una realitat en entorns de recerca i comença a ser-ho en entorns productius.
El concepte d'agència individual — un sistema, un objectiu — dóna pas al d'agència distribuïda. I aquí la complexitat s'accelera exponencialment.
Res d'això implica que els sistemes agèntics siguin inevitablement problemàtics. Implica que les decisions sobre com els dissenyem, on els desplegem, amb quins límits operatius i sota quins mecanismes de supervisió no són decisions tècniques.
Són decisions de govern. I el problema és que la majoria d'organitzacions — empreses, administracions, institucions financeres — estan prenent aquestes decisions com si fossin qüestions d'implementació de programari, no com si fossin qüestions d'arquitectura institucional.
Andorra és un país on les decisions de regulació tecnològica es prenen en entorns relativament àgils. Però àgil no significa improvisat.
La pregunta sobre com regular els sistemes agèntics — qui pot desplegar-los, en quins contextos, amb quines garanties de transparència i quins mecanismes de responsabilitat — és una pregunta que cal fer ara, no quan els sistemes ja estiguin desplegats i la inèrcia hagi substituït la deliberació.
La IA generativa ens va sorprendre perquè va arribar ràpid i va ser immediatament visible. La IA agèntica pot arribar de manera menys visible però amb conseqüències molt més estructurals, precisament perquè no actua al davant nostre sinó al darrere dels processos que organitzen la nostra economia i la nostra vida institucional.
La pregunta no és si la IA pensa. La pregunta és qui decideix quan pot actuar — i fins on.