L’error de delegar criteri a la IA (i com evitar-lo)

Utilitzo IA cada dia. Per treballar, per escriure, per pensar millor i, de vegades, per riure una estona. Però hi ha una línia que vigilo molt: no delegar criteri.
Els models de llenguatge són increïbles, sí. Però el seu punt fort no és la veritat, ni la responsabilitat, ni les conseqüències. El seu punt fort és predir paraules. Res més. Però tampoc menys.
Ho explicaré amb calma —i amb un punt d’humor— perquè m’he adonat que aquest error és cada cop més habitual: professionals deixant que la IA pensi per ells… i després preguntant-se per què les coses no acaben de quadrar.
1. Els LLM no opinen: només prediuen
Quan li demanes alguna cosa a un model de llenguatge, no està “raonant” ni “valorant” ni “decidint”.
Està fent una altra cosa: calculant quina paraula és més probable que vingui després.
És com un lloro molt llest que ha llegit tot Internet i, en lloc de repetir, improvisa constantment. Però continua sent un lloro. No té autobiografia, ni intenció, ni criteri.
Per això:
- sona convincent… encara que s’ho inventi,
- respon amb seguretat… encara que no en tingui,
- i pot explicar-te conceptes que no entén.
És brillant per accelerar, però pèssim per substituir judici.
2. El risc real no és que la IA s’equivoqui: és que tu deixis de pensar
Aquí és on passa tot. El risc no és tecnològic, sinó humà.
Quan una eina et respon molt bé, molt ràpid i amb molta seguretat… és fàcil apagar el pensament crític.
Jo mateix ho noto: quan vaig cansat, quan tinc pressa o quan només vull “sortir del pas”, la mà se’n va sola cap al teclat per preguntar a la IA.
I és llavors quan més alerta estic, perquè:
- la velocitat convida a no revisar,
- la forma convida a confiar,
- i la comoditat convida a delegar massa.
La IA no és perillosa. Perillós és utilitzar-la sense fricció.
I hi ha una dimensió addicional que afecta directament el SEO: els mateixos LLMs detecten aquesta manca de criteri en el contingut que consumeixen. Qui delega el pensament a la IA acaba produint textos que els models reconeixen com a fràgils. A Mindset Digital ho anomenem fragilitat epistèmica: el motiu pel qual el teu contingut pot ser invisible encara que estigui ben posicionat.
3. El meu sistema per no delegar criteri
No és perfecte, però funciona. He acabat creant una mena de “protocol personal” perquè la IA no em faci perdre control.
3.1. Regla 1: La tesi és meva. La IA només l’expandeix.
No començo preguntant “què en penses?”. Començo amb el meu punt de partida.
La IA m’ajuda a escriure millor, no a decidir què penso.
3.2. Regla 2: Si la resposta m’agrada massa ràpid, sospito
És la meva alarma interna. Quan tot “encaixa” en tres segons, paro:
- És correcte o només sona bé?
- Em reflecteix o només m’adula?
- Complementa o substitueix el meu criteri?
3.3. Regla 3: Sempre contrasto amb una font externa
Una lectura, un company, una nota meva. El que sigui, però fora de la IA. Contrastar és el que manté viu el pensament.
3.4. Regla 4: Decidir continua sent tasca humana
Puc fer servir IA per entendre millor un tema, generar alternatives o accelerar processos. Però el gest de decidir —el que implica responsabilitat— continua sent meu.
4. El futur no és IA vs humans: és IA + humans amb criteri
La IA no et fa més intel·ligent. Et fa més ràpid. I això és un arma de doble tall.
Sense criteri, només accelera errors.
Amb criteri, és extraordinària.
Cap model, per molt avançat que sigui, pot:
- assumir conseqüències,
- captar matisos humans,
- o prendre decisions que afecten altres persones amb responsabilitat real.
5. Un tancament amb humor (però seriós)
Quan utilitzo IA, m’ho imagino així:
És un copilot brillant que no ha conduït mai.
Et pot comentar la carretera, proposar rutes i explicar-te cada senyal…
Però si li dones el volant, no tens un copilot; tens un passatger molt convençut i amb zero quilòmetres d’experiència.
Així que sí: faig servir IA cada dia. I m’encanta. Però el volant, de moment, el continuo portant jo.
Gràcies per llegir. Si això et serveix: endavant. Si et genera fricció: encara millor.
