El Tribunal Suprem ha fet una passa important a favor de la transparència. En una decisió històrica, la sentència núm. 1119/2025, d’11de setembre de 2025, ha donat la raó a la Fundació Ciudadana Civio, i ha establert que els ciutadans tenen dret a accedir al codi font dels programes informàtics que fa servir l’Administració per prendre decisions automàtiques.
El cas concret es basa en l’aplicació BOSCO, que el Ministeri de Transició Ecològica utilitza per decidir qui pot rebre el bo social, una ajuda per a la factura elèctrica. La Fundació Civio volia saber exactament com funcionava l’algorisme de l’aplicació per comprovar que no hi hagués errors o que es fes servir de manera justa.
Tant el Consell de Transparència com l’Audiència Nacional havien negat l’accés, argumentant que el codi font estava protegit per la propietat intel·lectual i que divulgar-lo podria comprometre la seguretat.
El Tribunal Suprem, però, ha rebatut aquests arguments:
Aquesta sentència anul·la les decisions anteriors i obliga el govern a donar el codi font de l’aplicació BOSCO a la fundació. Això obre la porta a un control més efectiu sobre l’ús de la tecnologia per part de les administracions i dels ciutadans especialment quan afecta els drets i les llibertats d’aquests.
Anàlisi de l’Avantprojecte de Llei sobre la Governança de la IA i el seu Impacte en el Marc Jurídic Nacional
L’avenç vertiginós de la intel·ligència artificial (IA) ha plantejat desafiaments significatius en termes d’ètica, transparència i protecció dels drets fonamentals. En resposta a aquests reptes, el Govern d’Espanya ha aprovat recentment l’avantprojecte de llei sobre la governança de la IA, amb l’objectiu de garantir un ús ètic, inclusiu i beneficiós d’aquesta tecnologia. Aquest article analitza les principals disposicions d’aquesta normativa i la seva alineació amb el Reglament Europeu d’IA.
L’avantprojecte busca harmonitzar la legislació espanyola amb el Reglament Europeu d’IA, ja en vigor, que estableix un marc comú per al desenvolupament, comercialització i ús de sistemes d’IA a la Unió Europea. Aquest reglament classifica les aplicacions d’IA en funció del seu nivell de risc i estableix obligacions específiques per a cada categoria, amb la finalitat de mitigar possibles riscos per als drets i llibertats de les persones.
Una de les mesures més destacades de l’avantprojecte és l’obligació d’identificar clarament els continguts generats o manipulats mitjançant IA, com ara imatges, àudios o vídeos. Aquesta disposició busca prevenir la difusió de desinformació i protegir la ciutadania de possibles enganys, especialment en relació amb els anomenats deepfakes. L’incompliment d’aquesta obligació es considerarà una infracció greu, sancionable amb multes de fins a 35 milions d’euros o el 7% de la facturació anual de l’empresa infractora.
L’avantprojecte també prohibeix l’ús de tècniques subliminals que puguin manipular el comportament de les persones, així com l’explotació de vulnerabilitats específiques a causa de l’edat, discapacitat o situació socioeconòmica. A més, es prohibeix la classificació de persones basada en dades biomètriques per avaluar el seu comportament o personalitat, garantint així la protecció dels drets fonamentals i la dignitat humana.
L’Agència Espanyola de Supervisió de la Intel·ligència Artificial (AESIA), creada l’any 2023, serà l’encarregada de supervisar la implementació i compliment d’aquesta normativa. L’AESIA tindrà facultats inspectores i sancionadores per garantir que els sistemes d’IA operin de manera transparent i respectuosa amb els drets fonamentals.
Conclusió
L’aprovació d’aquest avantprojecte representa un pas significatiu cap a la regulació efectiva de la intel·ligència artificial a Espanya. En harmonitzar-se amb el marc europeu i establir mesures específiques per garantir la transparència i ètica en l’ús de la IA, es busca fomentar la confiança de la ciutadania en aquestes tecnologies i assegurar que el seu desenvolupament contribueixi al benestar social i al respecte dels drets fonamentals.