L’estudiant té dret a conéixer quan, com i amb quina finalitat s’aplica qualsevol sistema d’intel·ligència artificial que puga influir en la seua formació, qualificació o avaluació.
Cap algoritme pot ser utilitzat de manera oculta ni amb criteris opacs.
Això inclou, entre altres:
sistemes de detecció de plagi o similitud textual,
plataformes d’avaluació automàtica,
motors de recomanació acadèmica o orientació educativa,
sistemes de control de presència o seguiment de rendiment.
Els estudiants han de poder accedir a la documentació bàsica del funcionament d’aquests sistemes, conéixer-ne els marges d’error i tindre garantida la possibilitat de revisió humana.
Tot ús de la IA en processos acadèmics ha de deixar una traça verificable que permeta reconstruir les decisions o resultats que l’afecten.
L’estudiant té dret a:
saber quin algoritme ha estat aplicat,
conéixer les dades sobre les quals ha treballat,
demanar auditoria o verificació en cas d’error o sospita de biaix,
exigir supervisió humana en qualsevol resultat que tinga conseqüències acadèmiques.
Els centres educatius han de garantir que els sistemes emprats siguen fiables, validades i revisats periòdicament per experts independents.
Cap institució educativa pot introduir dades personals en sistemes d’IA sense el consentiment informat de l’estudiant.
Totes les dades han d’estar anonimitzades, xifrades i protegides, i només podran usar-se per a finalitats educatives legítimes.
L’estudiant té dret a sol·licitar:
la supressió o rectificació de dades errònies,
l’accés a la informació personal emmagatzemada,
la limitació del tractament si considera que s’ha vulnerat la seua privacitat.
Cap estudiant pot ser perjudicat per biaixos de gènere, origen, llengua o situació socioeconòmica derivats d’un algoritme.
Els centres educatius han d’auditar periòdicament les seues eines per detectar i corregir discriminacions.
La IA no pot servir per reforçar estereotips ni per establir perfils acadèmics o conductuals sense base objectiva.
Tot procés automatitzat amb conseqüències en l’avaluació o seguiment d’un estudiant ha de tindre una instància humana revisora amb capacitat de decisió.
L’ús d’IA mai pot eliminar la figura del professor, tutor o avaluador responsable.
L’estudiant ha de poder:
sol·licitar una revisió humana de qualsevol decisió automatitzada,
rebre una explicació comprensible dels criteris emprats pel sistema.
L’alumnat té dret a rebre formació sobre el funcionament, els riscos i les limitacions de la intel·ligència artificial, incloent-hi:
la detecció d’al·lucinacions o errors factuals,
el reconeixement de biaixos culturals,
l’aprenentatge d’ús responsable i ètic.
Cap estudiant hauria de ser avaluat amb criteris relacionats amb la IA sense haver rebut orientació prèvia suficient sobre el seu funcionament i les implicacions.
L’estudiant té dret a utilitzar eines d’intel·ligència artificial de manera transparent, formativa i crítica, sempre que:
declare el seu ús,
mantinga l’autoria i la responsabilitat,
garantisca el control humà sobre el resultat.
Les institucions no poden prohibir indiscriminadament l’ús de la IA sense oferir criteris clars i alternatives formatives.
En cas que una eina d’IA genere un resultat erroni o injust, l’estudiant té dret a:
Rebre explicacions sobre el funcionament del sistema.
Impugnar formalment la decisió davant la direcció acadèmica o la comissió d’avaluació.
Obtenir una revisió humana i motivada de la situació.
Sol·licitar una auditoria tècnica del sistema si existeix sospita de mal funcionament o biaix.
Cap decisió automàtica pot tancar un procediment acadèmic sense possibilitat de revisió humana.
Els estudiants tenen dret a:
saber quin programari de detecció de plagi o similitud s’està utilitzant,
conéixer quins criteris i llindars aplica,
tindre accés al resultat complet de l’anàlisi, incloent fragments assenyalats, percentatges i fonts,
poder al·legar o aportar proves quan consideren que l’eina ha comés un error o ha confós coincidències legítimes amb còpia.
Aquest dret forma part del principi de traçabilitat i rendició de comptes en l’avaluació educativa.
Els estudiants han de tindre veu en la definició de polítiques sobre IA en l’àmbit educatiu.
Els consells escolars, claustres o òrgans de representació estudiantil han d’incloure debats sobre l’impacte tecnològic i permetre la participació en l’elaboració de protocols d’ús responsable.
Això garanteix que les decisions tecnològiques no siguen imposades de dalt a baix, sinó construïdes amb la comunitat educativa.
Anota:
el tipus d’eina d’IA utilitzada,
el context (avaluació, detecció de plagi, seguiment, etc.),
la decisió o resultat que consideres injust o opac,
les proves o captures que puguen demostrar-ho.
Presenta un escrit dirigit a la direcció del centre, secretariat o responsable de protecció de dades, sol·licitant:
accés als criteris o algoritmes emprats,
explicació sobre el funcionament del sistema,
revisió humana del resultat.
Segons la Llei Orgànica de Protecció de Dades i Garantia dels Drets Digitals (LOPDGDD), tens dret a obtindre resposta en un termini raonable.
Si no reps resposta o la consideres insatisfactòria:
presenta una reclamació escrita davant el servei d’inspecció educativa o el síndic de greuges de la Comunitat Valenciana.
si la qüestió afecta dades personals, pots acudir també a l’Agència Espanyola de Protecció de Dades (AEPD).
Inclou sempre: proves, correspondència i còpia de la sol·licitud inicial.
Quan la IA haja influït en una nota o qualificació:
sol·licita revisió per part del professor responsable,
si la resposta no és satisfactòria, eleva la petició a la comissió d’avaluació o al deganat (en ensenyament superior).
Si el problema és estructural (ús massiu d’eines opaques o errònies), proposa:
reunir testimonis d’altres estudiants,
presentar una queixa col·lectiva a la direcció o al consell escolar,
demanar la creació d’un protocol de transparència algorítmica.
Els estudiants no sols han d’aprendre a usar la IA: han de poder viure en un ecosistema educatiu just i transparent, on les decisions automatitzades siguen explicables, revisables i respectuoses amb la seua dignitat.
El dret a conéixer els algoritmes que ens avaluen és, avui, una nova forma de ciutadania acadèmica.