#TecnologiaÈtica

Sentència Històrica sobre la transparència dels algoritmes

El Tribunal Suprem ha fet una passa important a favor de la transparència. En una decisió històrica, la sentència núm. 1119/2025, d’11de setembre de 2025, ha donat la raó a la Fundació Ciudadana Civio, i ha establert que els ciutadans tenen dret a accedir al codi font dels programes informàtics que fa servir l’Administració per prendre decisions automàtiques.

El cas concret es basa en l’aplicació BOSCO, que el Ministeri de Transició Ecològica utilitza per decidir qui pot rebre el bo social, una ajuda per a la factura elèctrica. La Fundació Civio volia saber exactament com funcionava l’algorisme de l’aplicació per comprovar que no hi hagués errors o que es fes servir de manera justa.

Tant el Consell de Transparència com l’Audiència Nacional havien negat l’accés, argumentant que el codi font estava protegit per la propietat intel·lectual i que divulgar-lo podria comprometre la seguretat.

El Tribunal Suprem, però, ha rebatut aquests arguments:

  • Naturalesa del dret d’accés a la informació pública: La sentència recalca que el dret d’accés a la informació pública no és només un principi orientador per a l’administració, sinó un dret constitucional subjectiu exercitable pels ciutadans. Aquest dret esdevé particularment rellevant amb l’ús de noves tecnologies, com els sistemes de presa de decisions automatitzades.
  • Principi de transparència algorítmica: La sentència reconeix la importància de la “transparència algorítmica” per garantir la rendició de comptes i evitar l’opacitat en les decisions públiques.
  • Ponderació de drets i límits: El Tribunal Suprem resol que la simple invocació de la propietat intel·lectual no és suficient per denegar l’accés, especialment quan el programa ha estat desenvolupat per una administració pública per a l’exercici de funcions públiques.
  • Seguretat Pública vs. Transparència: Respecte a l’argument de la seguretat pública, el Tribunal Suprem considera que la mera afirmació que la revelació del codi font augmenta la vulnerabilitat del sistema no és un motiu suficient per denegar l’accés. S’assenyala que la transparència pot, de fet, contribuir a la millora del codi i a la seva seguretat, i que, en qualsevol cas, els riscos poden ser gestionats amb mesures com la prohibició de la difusió no autoritzada o la signatura de compromisos de confidencialitat.
  • La Funció Pública de BOSCO: La sentència destaca la rellevància pública de l’aplicació BOSCO, ja que serveix per a l’exercici d’una funció pública amb una important projecció social: la protecció dels consumidors vulnerables i la lluita contra la pobresa energètica. El Tribunal Suprem subratlla que la Fundació Ciudadana Civio, com a entitat de vigilància social, té un interès legítim en verificar si l’algorisme de l’aplicació s’ajusta a la llei per evitar possibles errors o discriminacions.

Aquesta sentència anul·la les decisions anteriors i obliga el govern a donar el codi font de l’aplicació BOSCO a la fundació. Això obre la porta a un control més efectiu sobre l’ús de la tecnologia per part de les administracions i dels ciutadans especialment quan afecta els drets i les llibertats d’aquests.

 

Facebooktwittergoogle_pluslinkedinmail

La Nova Regulació Espanyola sobre Intel·ligència Artificial: Cap a un Ús Ètic i Transparent

Anàlisi de l’Avantprojecte de Llei sobre la Governança de la IA i el seu Impacte en el Marc Jurídic Nacional

L’avenç vertiginós de la intel·ligència artificial (IA) ha plantejat desafiaments significatius en termes d’ètica, transparència i protecció dels drets fonamentals. En resposta a aquests reptes, el Govern d’Espanya ha aprovat recentment l’avantprojecte de llei sobre la governança de la IA, amb l’objectiu de garantir un ús ètic, inclusiu i beneficiós d’aquesta tecnologia. Aquest article analitza les principals disposicions d’aquesta normativa i la seva alineació amb el Reglament Europeu d’IA.

L’avantprojecte busca harmonitzar la legislació espanyola amb el Reglament Europeu d’IA, ja en vigor, que estableix un marc comú per al desenvolupament, comercialització i ús de sistemes d’IA a la Unió Europea. Aquest reglament classifica les aplicacions d’IA en funció del seu nivell de risc i estableix obligacions específiques per a cada categoria, amb la finalitat de mitigar possibles riscos per als drets i llibertats de les persones.

Una de les mesures més destacades de l’avantprojecte és l’obligació d’identificar clarament els continguts generats o manipulats mitjançant IA, com ara imatges, àudios o vídeos. Aquesta disposició busca prevenir la difusió de desinformació i protegir la ciutadania de possibles enganys, especialment en relació amb els anomenats deepfakes. L’incompliment d’aquesta obligació es considerarà una infracció greu, sancionable amb multes de fins a 35 milions d’euros o el 7% de la facturació anual de l’empresa infractora.

L’avantprojecte també prohibeix l’ús de tècniques subliminals que puguin manipular el comportament de les persones, així com l’explotació de vulnerabilitats específiques a causa de l’edat, discapacitat o situació socioeconòmica. A més, es prohibeix la classificació de persones basada en dades biomètriques per avaluar el seu comportament o personalitat, garantint així la protecció dels drets fonamentals i la dignitat humana.

L’Agència Espanyola de Supervisió de la Intel·ligència Artificial (AESIA), creada l’any 2023, serà l’encarregada de supervisar la implementació i compliment d’aquesta normativa. L’AESIA tindrà facultats inspectores i sancionadores per garantir que els sistemes d’IA operin de manera transparent i respectuosa amb els drets fonamentals.

Conclusió

L’aprovació d’aquest avantprojecte representa un pas significatiu cap a la regulació efectiva de la intel·ligència artificial a Espanya. En harmonitzar-se amb el marc europeu i establir mesures específiques per garantir la transparència i ètica en l’ús de la IA, es busca fomentar la confiança de la ciutadania en aquestes tecnologies i assegurar que el seu desenvolupament contribueixi al benestar social i al respecte dels drets fonamentals.

Facebooktwittergoogle_pluslinkedinmail

Aquest lloc web utilitza cookies pròpies i de tercers per obtenir informació dels seus hàbits de cerca i intentar millorar la qualitat dels nostres serveis i de la navegació pel nostre lloc web. Si està d’acord fes click a ACCEPTAR o segueixi navegant. Més informació. aquí.

ACEPTAR
Aviso de cookies