La irrupció de la intel·ligència artificial en l’educació superior exigeix una resposta que vaja més enllà de la por o la prohibició. La Unió Europea, a través de l’Estratègia Europea d’Intel·ligència Artificial i del Reglament (UE) 2024/1689 (AI Act), no planteja la IA com una amenaça sinó com una oportunitat per reforçar la creativitat, la inclusió i la qualitat del coneixement. Davant d’una tecnologia capaç d’ampliar les capacitats cognitives humanes, limitar-se a sancionar-ne els riscos sense establir marcs positius d’ús seria un error estratègic. Les universitats tenen l’obligació ètica de formar persones capaces de utilitzar la IA de manera responsable, crítica i amb control humà efectiu, no d’infondre una cultura del temor o la sospita permanent.
La IA transformarà inevitablement l’educació: personalitzarà l’aprenentatge, facilitarà l’accés al coneixement i redefinirà la relació entre docència i investigació. Ignorar aquest canvi equivaldria a quedar fora de la pròxima revolució intel·lectual. Per això, cal impulsar orientacions constructives, transparents i col·laboratives, que integren la reflexió ètica i el debat col·lectiu en totes les etapes del procés educatiu. Només una actitud proactiva, basada en la confiança i la responsabilitat compartida, permetrà convertir la IA en un instrument d’apoderament intel·lectual i no en una nova forma de dependència tecnològica.
Vivim un moment d’inflexió. La intel·ligència artificial ja no és una promesa futurista, sinó un element quotidià que s’infiltra en els processos d’aprenentatge, creació i comunicació. En l’àmbit acadèmic, això obri possibilitats extraordinàries, però també multiplica els riscos de pèrdua d’autoria, superficialitat intel·lectual i dependència tecnològica.
Aquesta guia naix per oferir criteris, no receptes. Per a ajudar a pensar abans de fer servir una eina. Per a recordar que el coneixement és un procés, no un producte, i que la IA ha de ser un aliat, no una crossa.
L’objectiu no és “prohibir”, sinó aprendre a conviure amb les màquines de pensar, de manera que potencien la nostra creativitat i no la substituïsquen.
El terme “ecosistema ciberètic” descriu el nou espai on persones, algoritmes i institucions educatives conviuen i coevolucionen. En aquest ecosistema, el coneixement es produeix en xarxa: ja no som únicament autors, sinó també editors, curadors i verificadors d’allò que la tecnologia ens ofereix.
Adoptar una mirada ciberètica implica comprendre la interdependència entre l’humà i el digital, i assumir que cada acció amb una eina d’IA té conseqüències: en la informació, en l’aprenentatge i en la confiança pública en el saber.
Un ecosistema ciberètic sa es construeix amb tres principis:
Responsabilitat compartida: cada ús d’una IA deixa rastre i forma part d’un context col·lectiu.
Transparència operativa: saber què fa una eina, d’on trau la informació i fins on arriba.
Esperit crític actiu: no creure-ho tot, ni tampoc rebutjar-ho tot, sinó contrastar i raonar.
Tot ús responsable de la IA en educació ha de descansar sobre uns valors que definisquen què vol dir “aprendre bé” en temps d’automatització:
Honestedat: Reconéixer allò que és propi i allò que és assistit. La ment no pot delegar el pensament.
Respecte: No usar la IA per humiliar, enganyar o reproduir biaixos socials.
Responsabilitat: Mantindre el control sobre el procés intel·lectual i ser capaç d’explicar-lo.
Justícia: Assegurar que l’accés i la formació en IA siguen equitatius.
Transparència: Comunicar sempre com, quan i per a què s’ha fet ús de la IA.
Esperit crític: La IA no és una veu autoritzada. És un mirall estadístic. Cal preguntar-li, discutir-li i corregir-la.
La Comunitat Valenciana ha fet passos decidits en la transformació digital, però el repte no és tecnològic sinó cultural. No es tracta d’introduir més dispositius, sinó de redefinir la relació amb el coneixement.
A les aules valencianes, conviuen generacions digitals natives amb docents formats en paradigmes analògics. La IA pot ser una oportunitat per connectar aquests mons, si s’usa amb sentit pedagògic i no com a substitut de l’esforç o la reflexió.
Aquesta guia vol oferir una brúixola ètica per a aquest procés de transició. Ni demonitzar la IA, ni glorificar-la. Situar-la al seu lloc: com a instrument d’aprenentatge, no com a font d’autoritat.
Promoure una cultura d’ús crític, creatiu i responsable de les eines d’IA generativa.
Proporcionar criteris per a integrar-les en l’aprenentatge sense vulnerar la integritat acadèmica.
Fomentar la transparència i la traçabilitat dels processos educatius que les incloguen.
Inspirar docents i estudiants a experimentar amb la IA de manera ètica, reflexiva i inclusiva.
Obrir el debat sobre el futur de la intel·ligència humana en l’era algorítmica.
La IA pot ser una eina de llibertat o de dependència. El que determine la diferència no és la tecnologia, sinó la consciència amb què la fem servir.
La integritat acadèmica no és una formalitat, és l’essència del fet d’aprendre. No significa només “no copiar”, sinó construir coneixement amb criteri propi. En temps d’IA, aquesta exigència es fa més complexa: ara no sols cal evitar el plagi humà, sinó també el plagi invisible de les màquines.
Un treball assistit per IA pot ser legítim, però mai pot amagar que ho és. La diferència està entre usar una eina per a pensar millor i fer servir una eina per deixar de pensar.
L’aprenentatge real consisteix a entendre, no a produir textos. I això implica responsabilitat.
L’ús de qualsevol eina d’intel·ligència artificial ha de ser declarat i documentat.
Aquesta declaració pot adoptar diferents formats segons el context (per exemple, un apartat al final d’un treball o una nota metodològica), però sempre ha d’incloure tres elements:
Eina utilitzada: nom i versió (ex. ChatGPT, Claude, Gemini...).
Fase d’ús: investigació prèvia, esborrany, revisió d’estil, o anàlisi de dades.
Grau d’intervenció: breu descripció del tipus de suport rebut (ex. “s’han suggerit títols alternatius” o “s’ha revisat la claredat d’alguns paràgrafs”).
Aquesta transparència permet traçar el procés de creació i reforça la confiança en l’autoria.
L’ocultació o la simulació de treball humà a partir d’un text generat per IA constitueix una falta greu d’integritat.
Només la persona pot ser autora d’una obra intel·lectual. Una IA pot ajudar a redactar, però no pot ser subjecte creatiu.
Això implica que l’estudiant o el docent que la utilitze ha de:
Demostrar la contribució personal en les idees, el raonament i les conclusions.
Reescriure, revisar i adaptar qualsevol fragment generat, aportant-hi la pròpia veu i coherència.
Evitar que el text final siga un producte homogeni, neutre i impersonal, típic dels models automàtics.
La clau no és si s’ha usat o no la IA, sinó fins on el resultat reflecteix la identitat intel·lectual humana.
El que empra una IA continua sent el responsable del que diu el text.
Això inclou tres obligacions concretes:
Verificar dades i cites: comprovar que tota la informació siga certa i contrastable. Les “al·lucinacions” o invencions d’una IA no excusen la falta de rigor.
Mantindre el control intel·lectual: la persona decideix què incorpora, què descarta i per què.
Assumir la coherència global: l’autor ha de ser capaç d’explicar i defensar tot el contingut, incloses les parts suggerides per la IA.
En resum: la IA pot ajudar-te a pensar, però no pot pensar per tu.
L’ús responsable de la IA s’evidencia quan l’alumne aprén més gràcies a ella, no quan només l’empra per produir més text.
Això es pot demostrar de diferents maneres:
Integrant la informació obtinguda amb reflexions pròpies.
Elaborant comparacions entre versions humanes i versions generades.
Presentant esquemes o mapes mentals que mostren el procés d’assimilació.
Defensant oralment les idees per comprovar el domini real del contingut.
Un bon ús de la IA ha de multiplicar la comprensió, no diluir-la.
Exemple 1. Treball de recerca en batxillerat o FP:
L’alumnat pot usar la IA per generar preguntes inicials o esquemes, però després ha d’elaborar les respostes amb fonts contrastades i incloure un apartat de “Reflexió sobre l’ús de la IA”.
Exemple 2. Elaboració d’un article o assaig universitari:
Es pot emprar la IA per a revisar la coherència argumental o proposar títols alternatius. Cal deixar constància de les eines utilitzades i de les decisions finals preses per l’autor.
Exemple 3. Treballs col·laboratius:
Els equips poden experimentar amb IA per a tasques logístiques (resums, repartiment de rols, idees visuals), però la part crítica i analítica ha de ser humana, amb contrast i debat.
Anota cada interacció rellevant amb la IA, com si fóra un diari de procés.
Contrasta la informació amb fonts acadèmiques o verificades.
Reescriu tot el que siga massa genèric o amb estil neutre.
Fes servir la IA per a comprendre conceptes, no per a evitar-los.
Demostra sempre el teu criteri: què has acceptat, què has corregit i per què.
En un futur molt pròxim, la capacitat de treballar amb IA de manera ètica serà una competència bàsica en qualsevol professió.
Per això, les institucions educatives tenen el deure de fomentar-la des de les primeres etapes. No es tracta de formar usuaris obedients, sinó persones capaces de decidir amb criteri quina part del procés ha de ser automatitzada i quina no.
El valor del coneixement, ara més que mai, es mesura pel grau de consciència amb què es construeix.
No tot ús de la intel·ligència artificial és igual ni té la mateixa càrrega ètica. Entre el “fer trampes” i el “fer servir bé” hi ha una franja ampla on cal criteri.
Aquesta secció no busca fixar una moral única, sinó ajudar-te a identificar la frontera entre l’ajuda legítima i la substitució fraudulenta.
Pots imaginar-ho com un semàfor:
Verd: ús responsable i declarat, millora l’aprenentatge.
Taronja: ús ambigua o poc transparent, requereix revisió i context.
Roig: ús fraudulent, substitueix l’autoria o vulnera la privacitat.
a. Assistència instrumental
L’IA pot ser un suport tècnic quan ajuda a millorar la claredat, la cohesió o el llenguatge, sense alterar el fons del contingut.
Exemples:
Revisar ortografia, sintaxi i coherència.
Reordenar idees o estructurar apartats.
Sugerir títols, esquemes o frases introductòries.
Ajudar a adaptar el registre (formal, acadèmic, divulgatiu...).
La condició: cal declarar-ho i mantindre el control sobre el resultat.
b. Generació d’idees i perspectives
Un ús legítim és emprar la IA per a explorar visions alternatives o preguntar-li “què faltaria en aquest raonament”.
Serveix com a sparring cognitiu: et fa pensar més, no menys.
Exemple:
“Proposa tres enfocaments diferents per analitzar aquest problema, i explica’n els avantatges i limitacions.”
c. Traducció i síntesi
La IA pot ajudar a traduir o resumir textos, especialment per a alumnat multilingüe o amb dificultats de lectura.
L’ús és correcte si:
S’indica clarament que s’ha utilitzat una eina de traducció automàtica.
El resultat ha estat revisat i adaptat pel propi usuari.
d. Simulació de rols o contextos
L’aprenentatge crític pot reforçar-se fent servir la IA per a representar personatges o situacions.
Exemples:
Simular una entrevista amb una figura històrica o científica.
Recrear un debat entre postures oposades sobre un tema ètic.
Fer que l’IA adopte el paper d’un periodista, d’un client o d’un testimoni.
Aquest ús fomenta la creativitat, l’empatia i la competència comunicativa, sempre que després s’analitzen els resultats i es discutisca què s’ha aprés.
Són situacions on la línia entre aprendre i delegar és difusa.
Cal prudència i reflexió.
a. Redacció híbrida sense control
Quan es demana a la IA “escriu-me una introducció” i després només s’editen algunes frases, el text pot perdre autenticitat.
Solució: transforma eixes propostes en punts de partida, no en fragments finals.
b. Reescriptura automàtica completa
Els “humanitzadors” de text o programes que modifiquen el resultat per fer-lo més natural són problemàtics: amaguen l’origen automàtic.
La reescriptura ha de ser intencionada i conscient, no mecànica.
c. Ús massiu en treballs col·lectius
Quan un grup usa IA per dividir tasques sense interacció humana real, es desactiva l’aprenentatge col·laboratiu.
Cal acordar regles comunes: qui consulta, qui revisa i com es documenten els passos.
d. Creació d’imatges o vídeos sense context
Fer servir IA per il·lustrar un treball pot ser útil, però si no s’indica que és una imatge generada, es crea confusió.
S’ha d’explicitar sempre: “imatge generada amb IA per a ús il·lustratiu”.
a. Delegació cognitiva total
Quan l’IA redacta, analitza i conclou sense intervenció humana, no hi ha aprenentatge.
Exemple: “Fes-me un treball complet sobre la Guerra de Successió amb cites bibliogràfiques”.
Això equival a plagi intel·lectual, encara que el text siga “nou”.
b. Fabricació o falsificació de fonts
Cap IA garanteix la veracitat de les cites o de les dades.
Copiar bibliografia inventada o referències inexactes és un frau documental.
Només s’han d’utilitzar fonts verificades, recuperades manualment.
c. Introducció de dades personals o materials protegits
Està prohibit pujar a sistemes d’IA:
entrevistes reals, noms, correus o dades sensibles,
documents interns, treballs d’altres companys,
informació d’alumnes o pacients.
El dret a la privacitat preval sobre qualsevol curiositat tecnològica.
d. Substitució de la defensa oral
Usar la IA per a preparar respostes de defensa o simular entrevistes és acceptable com a entrenament; però no per a respondre preguntes reals o memoritzar guions escrits per l’eina.
El coneixement ha de ser assumit i integrat, no recitat.
Per saber si un ús és responsable, pregunta’t:
He declarat l’ús de la IA?
He entés realment el contingut que he generat?
Puc explicar amb les meues paraules com he arribat al resultat?
He afegit una aportació personal o simplement he seleccionat respostes?
Aporta valor educatiu o només eficiència?
Si pots respondre “sí” a les tres primeres, probablement estàs al costat correcte de la frontera.
Situació: una alumna de 17 anys prepara un treball sobre “Ètica i algoritmes”.
Usa ChatGPT per:
fer una pluja d’idees inicial,
resumir tres articles acadèmics,
revisar la redacció final.
A més, indica en l’apartat metodològic:
“He utilitzat la IA per ordenar idees i revisar el text. Les conclusions són pròpies i han sigut contrastades amb fonts acadèmiques.”
Resultat: ús transparent, aprenentatge evident, integritat mantinguda.
Verd.
Si, en canvi, haguera copiat el text sencer generat sense revisió ni citació:
Roig.
I si haguera barrejat paràgrafs generats amb paràgrafs propis sense avisar:
Taronja. Dubtós i poc ètic, encara que difícil de detectar.
L’ètica en l’ús de la IA no depén del programari, sinó de la lucidesa humana.
Cada vegada que consultes, generes o edites, deixes una empremta intel·lectual.
Fer-la visible és l’única manera de garantir que l’aprenentatge siga autèntic.
Cap reglament substitueix el bon judici. La clau no és prohibir o permetre la IA, sinó ensenyar a usar-la amb sentit.
Aquesta secció proposa orientacions pràctiques perquè docents i estudiants integren les eines d’IA en el treball quotidià sense perdre l’essència del que és aprendre: entendre, crear i compartir coneixement.
a. Normalitzar-ne la presència
Ignorar la IA és com prohibir Internet. Cal parlar-ne obertament, explicar com funciona i establir criteris clars des del principi del curs: quan es pot usar, amb quina finalitat i com s’ha de declarar.
b. Dissenyar activitats “resistents a IA”
Propostes que valoren la reflexió personal, l’experiència o el context, no la repetició d’informació.
Exemples:
Relacionar conceptes amb vivències pròpies.
Fer comparacions entre el que diu la IA i la realitat observada.
Analitzar com canvia un text segons el to, la intenció o el destinatari.
c. Convertir la IA en instrument d’avaluació formativa
Utilitza-la com a eina de feedback immediat, no com a substitut de la correcció docent.
Exemples:
Fer que l’alumnat revise amb IA el seu propi text i després explique quines millores acceptaria i quines no.
Demanar que la IA formule preguntes sobre un tema i l’alumnat valore la seua qualitat o correcció.
d. Ensenyar l’autoria traçable
Incorpora l’hàbit de guardar esborranys i iteracions del procés d’aprenentatge. Mostrar com ha evolucionat una idea o un text ajuda a visibilitzar el treball humà.
e. Modelar l’ètica amb l’exemple
Si el professorat utilitza IA per preparar materials, hauria també de declarar-ho. L’alumnat aprén més del que veu que del que se li diu.
a. Usa-la com a aliada, no com a excusa
La IA pot ajudar-te a entendre millor un tema, però mai ha de fer la feina per tu. Si no entens la resposta, el problema no és la màquina: és el punt on has d’aprendre.
b. Reescriu, no copies
Tot allò que tinga el to neutre o impersonal de la IA necessita la teua empremta.
Reescriure és convertir informació en coneixement.
c. Valora la teua veu
L’objectiu no és tindre textos perfectes, sinó arguments propis. La IA t’ajuda a expressar-te, però el que dóna valor és el que penses tu.
d. Cultiva la curiositat
Pregunta’t d’on ix la informació, quins biaixos pot contindre i què hi ha darrere de la “veu objectiva” de la IA.
Aprendre és sospitar amb intel·ligència.
e. Practica la transparència
Inclou sempre una nota final breu sobre com has utilitzat la IA. No és una confessió, és una mostra de maduresa.
a. “El judici de la IA”
L’alumnat tria un text generat per IA i l’analitza col·lectivament: és coherent? Té biaixos? És ètic?
Serveix per aprendre a avaluar críticament la credibilitat dels continguts digitals.
b. “Prompts en cadena”
Cada alumne formula una pregunta a la IA i el següent ha de millorar-la.
Objectiu: entendre com petites variacions canvien radicalment la qualitat del resultat.
c. “Dades sota sospita”
Analitzar un conjunt d’informacions o imatges generades automàticament i investigar quines són reals, quines no i per què.
Afina la competència mediàtica i el pensament científic.
d. “Humanitzar el resultat”
Donar a l’alumnat un text neutre generat per IA i demanar-li que el reescriga afegint emoció, context o veu personal.
Resultat: descobrir què aporta el factor humà a la comunicació.
Polítiques clares, no punitives. El centre ha de definir criteris de transparència, no amenaces de sanció.
Formació contínua del professorat. Els docents necessiten espais per aprendre junts com utilitzar la IA sense perdre control sobre el procés educatiu.
Espais de debat. Crear seminaris o tallers on es reflexione sobre casos reals d’ús i abús.
Tutories digitals. Acompanyar l’alumnat en la gestió d’eines, seguretat i salut mental digital.
Inclusió i accessibilitat. Promoure l’ús de la IA per eliminar barreres (lectura fàcil, traducció, veu sintètica) sense caure en dependències.
Adopta una política de “declaració positiva”: fomentar que l’alumnat descriga com ha utilitzat la IA, en lloc de perseguir qui ho ha fet.
Actualitza els codis d’integritat per incloure exemples pràctics d’ús responsable.
Integra la IA en els projectes educatius de centre com a eina de reflexió sobre el futur del treball, la ciència i la cultura.
Impulsa la col·laboració interdisciplinària: filosofia, tecnologia i llengües poden treballar juntes per formar ciutadania digital crítica.
La IA també té un cost ambiental i social. Cada consulta implica consum energètic i ús de servidors remots.
Aprendre digitalment responsable significa també:
Evitar repeticions innecessàries.
Utilitzar versions locals o de baix impacte quan siga possible.
Reflexionar sobre la procedència de les dades i el valor del silenci digital: no tot ha d’estar automatitzat.
L’educació no pot competir amb la velocitat de les màquines, però pot ensenyar allò que cap algoritme pot copiar: criteri, sensibilitat i sentit.
La IA pot accelerar processos, però el coneixement continua necessitant temps, dubte i conversa.
Si sabem usar-la amb consciència, la IA pot convertir-se en el millor mirall pedagògic: ens mostra com pensem, com aprenem i fins on estem disposats a créixer.
VI. Cap a una cultura digital ètica
Saber llegir ja no és suficient. Tampoc saber escriure. La nova alfabetització consisteix a entendre com es genera la informació i quins interessos, filtres o biaixos hi ha darrere d’allò que llegim, escoltem o compartim.
En aquest sentit, la intel·ligència artificial no és un enemic, sinó una prova de maduresa col·lectiva: la d’una societat capaç de distingir entre la màgia tecnològica i el coneixement autèntic.
Educar en IA no és formar programadors, sinó ciutadans crítics capaços d’interactuar amb sistemes automatitzats sense perdre la llibertat de pensament.
El futur de l’educació digital no dependrà de les eines, sinó dels valors que les orienten.
L’ètica de la IA comença per tres actes senzills però radicals:
Reconéixer l’autoria humana. Tot coneixement necessita un rostre darrere.
Fer visible el procés. Mostrar com hem arribat a una idea és més valuós que el producte final.
Assumir les conseqüències. Cada decisió digital deixa una empremta: ecològica, social o emocional.
El compromís ètic no s’aprén memoritzant normes, sinó practicant la coherència entre el que es diu i el que es fa.
El professorat es converteix en guia d’orientació epistemològica: ja no transmet coneixement tancat, sinó que ajuda a navegar per un oceà d’informació.
L’alumnat, al seu torn, deixa de ser receptor per esdevenir coautor de processos intel·lectuals compartits amb la IA.
El diàleg entre humà i màquina pot ser una forma d’aprenentatge profund si es manté el sentit crític i la capacitat d’autoreflexió.
No es tracta d’escollir entre tecnologia o humanisme, sinó de construir un humanisme augmentat, on la IA amplie les nostres possibilitats de comprendre el món, sense desplaçar el nostre criteri moral.
L’objectiu és que l’educació ens permeta usar la potència de la màquina sense apagar la fragilitat de la ment.
Aprendre amb IA hauria de fer-nos més conscients, no més eficients; més savis, no més productius.
La IA és una eina de coneixement, no una font d’autoritat.
La integritat acadèmica continua sent l’únic fonament de la confiança educativa.
La transparència és el nou alfabet de la credibilitat.
L’ètica tecnològica s’ensenya amb exemples, no amb discursos.
La creativitat humana segueix essent insubstituïble.
La intel·ligència artificial (IA) pot definir-se com el conjunt de sistemes capaços de processar informació de manera autònoma, imitant funcions pròpies de la ment humana com ara el raonament, l’aprenentatge, la percepció o la planificació.
La seua finalitat no és substituir el pensament humà, sinó ampliar la capacitat d’anàlisi i decisió mitjançant l’ús d’algoritmes que aprenen de grans volums de dades.
A l’àmbit educatiu, la IA actua com un nou agent del coneixement: pot ajudar a investigar, escriure, traduir o crear continguts, però també planteja interrogants sobre l’autoria, la veracitat i la dependència cognitiva.
Per això és fonamental integrar-la des d’una mirada crítica i ètica.
En els darrers anys, la IA ha transformat de manera profunda l’educació superior i la formació professional, alterant els processos de redacció, investigació i avaluació.
El seu ús massiu ha generat beneficis evidents —accessibilitat, agilitat, personalització— però també riscos nous:
Pèrdua d’autenticitat en els treballs acadèmics.
Uniformització del pensament, amb textos generats sense reflexió.
Desigualtats digitals entre alumnat amb diferents competències tecnològiques.
Dependència metodològica de plataformes comercials tancades.
El repte actual de l’educació valenciana és aconseguir un equilibri entre innovació i rigor, aprofitant el potencial de la IA sense erosionar la integritat acadèmica ni la capacitat crítica de l’alumnat.
El concepte d’ecosistema ciberètic descriu un entorn on persones, institucions i algoritmes conviuen amb responsabilitat compartida.
Aquest ecosistema es basa en tres eixos:
Autonomia informada: els usuaris prenen decisions conscients sobre l’ús de la IA.
Transparència operativa: les eines revelen com processen dades i generen resultats.
Responsabilitat col·lectiva: tots els actors educatius participen en la regulació i l’avaluació dels usos tecnològics.
Aquesta visió s’alinea amb el marc europeu d’ètica digital, que considera la IA una tecnologia d’impacte social i exigeix garanties de seguretat, equitat i supervisió humana.
La Unió Europea ha establit un conjunt de principis que defineixen què és una IA fiable. Traslladats a l’àmbit educatiu, poden resumir-se així:
Transparència: totes les persones que utilitzen IA han de poder entendre d’on provenen les dades i com s’han processat.
Supervisió humana: la IA ha de servir per potenciar la intel·ligència humana, mai per anul·lar-la o automatitzar el judici crític.
Equitat i no discriminació: cal evitar reproduir biaixos racials, de gènere, lingüístics o socioeconòmics.
Privacitat i protecció de dades: qualsevol ús d’informació personal ha d’estar anonimitzat i complir la legislació vigent.
Responsabilitat i rendició de comptes: cada institució educativa ha d’assumir la traçabilitat dels processos d’ús d’IA en docència i recerca.
L’ús de la IA en educació ha d’estar governat pels mateixos valors que fonamenten qualsevol pràctica científica o pedagògica:
Honestedat: reconéixer l’origen de les idees i dels processos que han intervingut.
Confiança: garantir que el treball presentat és resultat d’un esforç real i verificable.
Respecte: evitar usos que vulneren drets, privacitat o dignitat de les persones.
Responsabilitat: assumir les conseqüències de cada decisió tecnològica i intel·lectual.
Valentia intel·lectual: mantindre el criteri propi davant d’un algoritme aparentment infal·lible.
Aquests valors són el fonament sobre el qual ha de construir-se la nova cultura digital ètica dins de l’educació valenciana.
La integritat no és una assignatura, és una forma de mirar el món.
En el context digital, implica desenvolupar la capacitat de:
Pensar abans de fer servir una eina.
Distingir entre assistència tecnològica i substitució intel·lectual.
Admetre els propis límits i reconéixer els errors.
Aplicar criteris ètics coherents en qualsevol ús digital.
Fomentar aquesta competència des de l’aula ajuda a crear una generació de professionals que no sols saben usar IA, sinó que saben decidir quan no cal usar-la.
L’educació digital és una tasca col·lectiva.
Cada actor té un paper específic:
El professorat: ha de garantir l’ús pedagògic, transparent i crític de la IA, i servir de model d’ètica professional.
L’alumnat: ha d’assumir la responsabilitat del seu aprenentatge i de l’impacte de les seues decisions digitals.
Les institucions: han de establir protocols clars, promoure la formació contínua i assegurar l’equitat d’accés a la tecnologia.
Només així la IA pot convertir-se en una eina de democràcia cognitiva, no d’exclusió digital.
El sistema educatiu valencià necessita avançar cap a una política pròpia de governança tecnològica, que combine innovació amb ètica.
Algunes línies d’acció possibles serien:
Elaborar una Carta Valenciana d’Ús Responsable de la IA en Educació, consensuada entre institucions, centres i comunitat educativa.
Crear un Observatori de Bones Pràctiques Digitals per avaluar experiències i difondre models positius.
Incloure l’alfabetització crítica en IA dins del currículum de secundària i formació professional.
Promoure programes de formació docent que integren ètica, tecnologia i pedagogia.
Fomentar l’ús d’eines de codi obert i sobirania digital per reduir dependències comercials.
Cada treball acadèmic elaborat amb ajuda d’eines d’IA hauria d’incloure un breu text de declaració com aquest:
Declaració de transparència:
Jo, [nom i cognoms], declare que aquest treball ha sigut elaborat amb ús parcial d’eines d’intel·ligència artificial generativa com a suport d’escriptura i reflexió.
He mantingut el control creatiu i intel·lectual durant tot el procés, revisant i validant les propostes generades.
Puc demostrar la traçabilitat de les interaccions i la coherència de les decisions finals.
Aquesta declaració no és un tràmit, sinó una expressió de responsabilitat ètica i maduresa professional.
Crear un protocol senzill de declaració d’ús d’IA per a tots els treballs acadèmics.
Incorporar tallers de pensament crític digital en tots els nivells educatius.
Promoure projectes interdisciplinaris sobre IA i ètica.
Formar equips de mentoria digital entre professorat i alumnat.
Establir una xarxa de bones pràctiques entre centres per compartir recursos, experiències i dilemes.
Cap eina ens farà més savis si no sabem per què la utilitzem. La IA pot escriure, resumir i fins i tot imaginar, però només l’ésser humà pot donar sentit.
El repte no és dominar la tecnologia, sinó dominar la mirada amb què la fem servir.
Només així, la intel·ligència artificial deixarà de ser una amenaça i es convertirà en una invitació a pensar millor.