1.1. Concepte de redacció assistida per IA
La redacció assistida per intel·ligència artificial es refereix a l’ús d’eines generatives (com ChatGPT, Gemini o altres sistemes de llenguatge) en la fase final del procés d’escriptura, on l’autor trasllada a la màquina la tasca tècnica de convertir en text escrit unes idees, estructures i arguments propis.
El tret essencial d’aquesta pràctica és el manteniment del control creatiu: el sistema no genera el contingut ni el raonament, sinó que actua com un instrument redactor o refinador del llenguatge.
Aquesta distinció és fonamental des del punt de vista ètic i acadèmic, ja que preserva l’autoria intel·lectual de la persona que conceptualitza, estructura i verifica el resultat final. L’ús legítim d’IA generativa en aquest context s’assimila a altres eines tècniques (processadors de text, traductors automàtics o correctors ortogràfics), sempre que l’aportació humana siga substancial, demostrable i traçable.
1.2. Marc normatiu europeu
El Reglament (UE) 2024/1689 del Parlament Europeu i del Consell, conegut com a AI Act, estableix en el seu article 4 que l’ús de sistemes d’IA ha de respectar els valors fonamentals de la Unió, incloent la transparència, la responsabilitat i el control humà efectiu.
En el seu considerant 28, el Reglament recorda que “l’ús de sistemes d’IA en la creació de continguts ha de garantir la identificació clara del seu caràcter automatitzat”, i que els usuaris “han de mantenir en tot moment la capacitat de supervisar, comprendre i modificar el resultat”.
Això implica que, en l’àmbit educatiu i científic, l’autoria humana continua essent el nucli de la responsabilitat ètica i acadèmica, i l’ús de la IA ha d’anar sempre acompanyat d’una declaració de transparència que permeta verificar el grau de participació humana.
També és rellevant la Directiva (UE) 2019/790 sobre drets d’autor en el mercat únic digital, que en el seu article 3 reconeix excepcions per a l’extracció de textos i dades amb finalitats de recerca, però no atorga personalitat jurídica ni drets d’autoria a les màquines. D’ací es desprén que només una persona pot ser considerada autora d’una obra, fins i tot si ha utilitzat IA com a suport instrumental.
1.3. Marc espanyol
En l’Estat espanyol, la Llei de Propietat Intel·lectual (Reial decret legislatiu 1/1996), modificada el 2023 per adaptar-se a la Directiva europea, defineix en el seu article 5.1 que “són autors les persones naturals que creen alguna obra literària, artística o científica”.
Aquesta redacció exclou explícitament qualsevol reconeixement d’autoria a entitats no humanes, i per tant, la IA només pot considerar-se instrument tècnic o assistent creatiu.
Pel que fa al context acadèmic, la LOSU (Llei Orgànica 2/2023, del Sistema Universitari) estableix en el seu article 2.2.e) com a principi rector del sistema universitari espanyol “la integritat, l’ètica i la responsabilitat en la generació i transmissió del coneixement”. Això obliga les universitats a garantir que els treballs acadèmics responguen a autoria real i verificable.
Moltes universitats, entre elles la Universitat de València, han començat a introduir en els seus reglaments d’avaluació i integritat acadèmica clàusules que exigeixen declarar l’ús d’eines d’IA i mantenir evidències del procés d’elaboració, seguint les recomanacions del Ministeri de Ciència, Innovació i Universitats i de la CRUE (Conferencia de Rectores de Universidades Españolas).
1.4. Implicacions generals
El conjunt normatiu europeu i espanyol configura un marc que no prohibeix l’ús d’IA en la redacció acadèmica, però imposa condicions de transparència i control humà.
La responsabilitat final recau sempre sobre l’autor, que ha de poder demostrar que:
les idees, estructura i arguments provenen d’un treball propi;
la IA s’ha utilitzat com a eina d’assistència tècnica, no de substitució;
el resultat final ha sigut supervisat i validat críticament per ell mateix.
2.1. Principi d’originalitat i integritat acadèmica
En l’àmbit universitari, l’originalitat s’entén com l’aportació intel·lectual pròpia de l’estudiant en la selecció de fonts, en la formulació d’objectius i hipòtesis, en l’argumentació i en l’avaluació crítica de resultats. La LOSU incorpora com a principi rector del sistema universitari la integritat i l’ètica en la generació i transmissió del coneixement, i obliga les universitats a vetlar pel seu compliment en docència i recerca. Això inclou explícitament la prevenció del frau acadèmic i la preservació de l’autoria real dels treballs. boe.es+1
2.2. Redacció assistida vs. plagi i delegació indeguda
Redacció assistida (fase final d’escriptura): l’estudiant transfereix a l’IA tasques instrumentals de redacció i estil a partir d’idees, esquemes i materials que són seus, i manté el control humà efectiu sobre el resultat (planifica, revisa, valida i corregeix). Açò és compatible amb l’ètica acadèmica si hi ha transparència i traçabilitat. L’AI Act exigeix que l’ús d’IA preserve la supervisió i el control humà, i que puga identificar-se el component automatitzat quan siga pertinent. eur-lex.europa.eu
Plagi o delegació indeguda: hi ha cessió substancial del procés intel·lectual a la màquina o a tercers, absència d’aportació pròpia i manca de verificació crítica; l’IA genera contingut i decisions substantives, i l’estudiant es limita a acceptar-les. Açò vulnera la integritat i pot constituir plagi o frau acadèmic segons la normativa universitària i el deure general d’integritat de la LOSU. boe.es
Clau diferenciadora: la substancialitat de l’aportació humana i el control creatiu demostrable. Si la IA només opera com a “teclejadora intel·ligent” i l’autor pot provar l’origen humà del plantejament, l’arquitectura argumental i la validació final, estem en ús legítim; si modela o substitueix l’autoria, no.
2.3. Autoria i propietat intel·lectual
La Llei de Propietat Intel·lectual (LPI) reconeix com a autor només la persona física que crea l’obra; la IA no pot ostentar autoria ni drets d’autor. En conseqüència, la persona que utilitza IA com a instrument segueix sent l’autora, però també l’única responsable del contingut final i de la seua originalitat. boe.es+1
En paral·lel, la Directiva (UE) 2019/790 sobre Drets d’Autor recorda el marc d’excepcions de text and data mining per a recerca, sense reconéixer autoria a les màquines. Açò reforça que l’IA és eina, no coautora. eur-lex.europa.eu+1
2.4. Distinció conceptual: assistència, coautoria i “fantasma”
Assistència tècnica (permesa amb transparència): refinament d’estil, correcció, reordenació de paràgrafs, simplificació lingüística, adaptació de registres i formats a partir d’un contingut humà previ. Control humà en tot moment. eur-lex.europa.eu
Coautoria (no aplicable a la IA): la LPI impedeix atribuir coautoria a la IA; només persones poden ser coautores. Qualsevol pretensió de “coautoria amb IA” és conceptualment errònia en dret espanyol i europeu. boe.es
“Autor fantasma” tecnològic (prohibit): quan l’IA elabora seccions substantives sense direcció intel·lectual humana real i sense declaració, hi ha delegació i possible plagi, encara que el text siga “nou” i no coincidisca amb fonts. El plagi acadèmic no es limita a la còpia literal; inclou la apropiació indeguda d’autoria.
2.5. Criteris operatius per acreditar control creatiu i originalitat
Seguint recomanacions de CRUE Digitalització i bones pràctiques universitàries, resulten defensables els següents criteris per a TFM/TFG i treballs: CRUE+1
Traçabilitat del procés: conservar esborranys datats, esquemes originals, diaris de recerca, llistes de fonts i notes d’anàlisi.
Transparència en l’ús d’IA: declarar la finalitat concreta (p. ex. “millora d’estil i cohesió”), l’eina utilitzada i el grau d’intervenció.
Verificació humana forta: lectura crítica final, contrast amb fonts, comprovació de cites i dades, i correcció d’errors de la IA.
Aportació intel·lectual identificable: seccions clau redactades i raonades per l’estudiant: plantejament del problema, marc teòric seleccionat, mètode, discussió i conclusions.
Evidències de decisió humana: justificació de canvis substantius, opcions metodològiques i interpretacions de resultats.
Respecte als límits de la confidencialitat i protecció de dades quan s’usen exemples o dades reals.
Evitar dependència excessiva: si l’eina ha generat blocs d’anàlisi o síntesi sense guia humana, cal reescriptura crítica i citació de fonts originals.
Algunes universitats, inclosa la Universitat de València, estan desplegant formacions i materials per integrar el marc d’integritat i la regulació de l’ús de la IA en guies docents i rúbriques, alineant-se amb el principi de transparència i control humà. uv.es
2.6. Test pràctic per a distingir assistència legítima
Qui ha dissenyat el relat científic? Si és l’estudiant, i la IA només “posa en net”, és assistència.
Qui avalua i assumeix la responsabilitat del text? Sempre l’estudiant.
Es pot demostrar el procés? Si l’estudiant pot aportar esborranys, prompts i decisions, hi ha control creatiu.
Hi ha seccions substantives generades sense direcció humana? Si sí, risc de delegació indeguda o plagi.
3.1. Marc internacional: UNESCO i OCDE
L’UNESCO, en la seua Recomanació sobre l’Ètica de la Intel·ligència Artificial (2021), adoptada per 193 estats membres, estableix el principi de responsabilitat i control humà significatiu: qualsevol ús d’IA en l’educació ha de garantir que les persones mantinguen la titularitat intel·lectual i la responsabilitat dels resultats. En el seu article 23, especifica que els sistemes d’IA han d’“empoderar l’ésser humà, no substituir-lo”.
La OCDE coincideix en el seu Marco de Principios de IA (2019) que la innovació tecnològica ha d’estar sotmesa a criteris de transparència, explicabilitat i rendició de comptes, recomanant que les institucions educatives desenvolupen protocols propis de verificació d’autoria i declaració d’ús d’IA.
Aquestes directrius internacionals tenen valor orientador i s’han traduït en recomanacions concretes dins de la Unió Europea.
3.2. Marc europeu: Comissió Europea i CRUE
La Comissió Europea, a través del document Ethical Guidelines for Trustworthy AI (2019), identifica set principis clau per a una IA “fiable”, dels quals tres són directament aplicables al context acadèmic:
Supervisió humana: la IA ha d’estar sota control humà constant, garantint la capacitat de revisió i correcció.
Transparència i traçabilitat: els usuaris han de poder comprendre el funcionament i l’origen dels resultats.
Responsabilitat: els usuaris (en aquest cas, els autors dels treballs) assumeixen la responsabilitat plena del contingut final.
El AI Act (Reglament UE 2024/1689), en el seu títol II, capítol 2, reforça aquesta exigència establint que els proveïdors de sistemes generatius han de garantir la marcació de continguts i facilitar informació clara sobre l’origen automatitzat. Per extensió, en l’àmbit universitari, això implica que l’estudiant té el deure de declarar quan una part del text ha estat generada o refinada per una IA.
En l’àmbit estatal, la CRUE Universitats Espanyoles (2023) ha publicat el Decàleg per a l’ús de la intel·ligència artificial a la universitat, on el punt 3 estableix:
“L’ús de sistemes d’intel·ligència artificial ha de ser transparent, ètic i compatible amb la integritat acadèmica. Els estudiants han de declarar-ne l’ús, i el professorat ha de definir els límits d’aquest ús en cada activitat acadèmica.”
Aquest decàleg situa la transparència com el criteri vertebrador de la convivència entre IA i integritat universitària.
3.3. Bones pràctiques en universitats espanyoles
Diverses universitats ja han emés protocols específics:
Universitat de València (UV): recomana que tot ús d’IA en TFG/TFM es declare de manera explícita i justificada. En particular, assenyala que “la responsabilitat de l’autoria i l’originalitat del treball recau exclusivament en l’estudiant”.
Universitat Oberta de Catalunya (UOC): exigeix als estudiants especificar si han utilitzat IA i de quina manera, considerant falta greu “la presentació d’un text totalment o parcialment generat per IA sense indicació”.
Universitat de Granada i Universitat de Deusto: han inclòs apartats específics en les seues guies de TFM per a la declaració d’ús d’eines d’IA, amb exemples de redacció transparent (“S’ha emprat ChatGPT únicament per a la revisió estilística del text”).
Universitat de Barcelona (UB): ha publicat un document intern de bones pràctiques que defineix l’ús responsable de IA com “aquell en què l’estudiant manté el control creatiu, indica la naturalesa de l’assistència i verifica personalment tot el contingut”.
Aquesta tendència consolida un nou estàndard de traçabilitat: les universitats no penalitzen l’ús d’IA, sinó la falta de transparència o la pèrdua de control creatiu.
3.4. Convergència dels models
Els tres nivells —UNESCO, Unió Europea i universitats espanyoles— coincideixen en tres eixos normatius i ètics:
Control humà significatiu: la persona autora no pot delegar decisions intel·lectuals essencials.
Transparència verificable: l’ús d’IA ha de ser declarat, documentat i explicable.
Rendició de comptes: la responsabilitat de la veracitat, coherència i autoria recau íntegrament en l’estudiant.
Aquesta convergència defineix un marc pedagògic sòlid: utilitzar IA no és incompatible amb la integritat acadèmica, sempre que el procés siga documentat i auditable.
La pròxima secció desenvoluparà la Part 4: Declaració de transparència sobre l’ús d’IA assistida, amb un model complet per a TFM/TFG i explicació del seu fonament jurídic i ètic. Vols que la continue ara?
4.1. Fonament jurídic i ètic
El principi de transparència en l’ús d’eines d’intel·ligència artificial deriva de tres nivells normatius:
AI Act (Reglament UE 2024/1689) – Articles 4, 50 i 52: estableixen l’obligació d’identificar clarament els continguts generats o assistits per IA, i garanteixen el control humà efectiu.
Llei Orgànica 2/2023, del Sistema Universitari (LOSU) – Article 2.2.e: fixa la integritat, l’ètica i la responsabilitat com a principis bàsics en la generació i transmissió del coneixement.
Reglaments interns d’integritat acadèmica (CRUE i universitats): imposen la declaració explícita de qualsevol intervenció no humana en el procés d’elaboració.
A nivell ètic, la transparència permet garantir tres coses:
que la autoria intel·lectual pertany efectivament a l’estudiant,
que es pot verificar el control creatiu i la supervisió humana,
i que la IA no ha estat emprada per substituir la reflexió, l’anàlisi o la síntesi personal.
L’objectiu no és restringir l’ús de la IA, sinó protegir la traçabilitat de l’aprenentatge i el valor formatiu del treball acadèmic.
4.2. Continguts mínims d’una declaració de transparència
Segons la doctrina comparada i les recomanacions de la CRUE (2023), una declaració de transparència en TFM/TFG hauria d’incloure:
Identificació de les eines emprades (nom i versió).
Fase del procés en què s’han utilitzat (p. ex. revisió lingüística, millora d’estil, síntesi de fonts, etc.).
Tipus d’intervenció (assistència tècnica, redacció parcial, suport a la revisió).
Control creatiu (confirmació que l’estudiant ha verificat, corregit i assumit la responsabilitat del contingut final).
Declaració de conformitat amb la normativa universitària i compromís de disponibilitat de les evidències (esborranys, prompts, cites verificables).
4.3. Model de clàusula de transparència (proposta formal)
Declaració de Transparència sobre l’Ús d’Intel·ligència Artificial Assistida
Jo, [Nom i Cognoms], estudiant del [Grau/Màster] de la [Universitat], declaro que aquest treball acadèmic (TFG/TFM) és resultat de la meua aportació personal, original i verificable, i que mantinc el control creatiu sobre el conjunt de les idees, arguments i conclusions.
En el procés d’elaboració he utilitzat eines d’intel·ligència artificial únicament amb finalitats d’assistència tècnica, concretament per a [descriure la finalitat: revisió estilística, verificació de coherència, generació d’exemples, etc.].
He revisat i validat personalment tots els continguts generats, assumint-ne la responsabilitat ètica i acadèmica.
Manifeste que cap secció d’aquest treball ha estat redactada íntegrament per un sistema automatitzat sense supervisió humana, i que puc aportar evidències del procés d’elaboració si l’autoritat acadèmica ho sol·licita.
Aquest ús és conforme amb la normativa de la [Universitat] i amb els principis d’integritat acadèmica establerts a la Llei Orgànica 2/2023 (LOSU) i al Reglament (UE) 2024/1689 sobre Intel·ligència Artificial.
[Lloc i data]
Signatura: ____________________________
4.4. Justificació de la clàusula
Aquest model compleix tres requisits essencials:
Ética de la traçabilitat: declara què s’ha fet i com, evitant ambigüitats.
Conformitat legal: cita la normativa vigent (LOSU i AI Act).
Verificabilitat: incorpora la possibilitat de revisar els materials de treball i prompts, permetent demostrar autoria humana.
El document és adaptable segons la política de cada universitat o departament, però garanteix una protecció recíproca: protegeix l’estudiant davant sospites infundades i a la vegada preserva la integritat institucional.
5.1. Objectiu general
La finalitat d’aquestes recomanacions és establir criteris operatius per garantir que l’ús de la IA millore la qualitat del treball acadèmic sense comprometre’n la integritat.
Són aplicables a TFG, TFM i qualsevol activitat universitària on es puga utilitzar IA generativa per a redactar, revisar o sintetitzar contingut.
5.2. Recomanacions per a estudiants
1. Planifica abans d’utilitzar IA.
Abans d’obrir una eina generativa, dissenya el teu esquema d’idees, índex o objectius. La IA pot ajudar-te a redactar, però no a pensar per tu. Si no saps què vols dir, tampoc sabrà ajudar-te de forma legítima.
2. Mantén el control creatiu.
Tot allò essencial (plantejament del problema, justificació, discussió, conclusions) ha d’estar sota el teu criteri. La IA pot suggerir redaccions, però tu decideixes quina versió té sentit en el teu context.
3. Guarda evidències del procés.
Conserva esborranys, prompts, captures o documents intermedis que mostren com has construït el treball. Aquests materials acrediten la teua autoria i transparència si cal justificar-la davant la universitat.
4. Declara sempre l’ús d’IA.
Inclou al final del treball la declaració de transparència amb les eines emprades i la finalitat del seu ús. La falta d’aquesta declaració pot ser interpretada com ocultació o plagi.
5. No cites mai la IA com a font d’autoritat.
Les eines generatives no són fonts, sinó instruments. Verifica qualsevol dada o afirmació amb fonts acadèmiques reals (llibres, articles, documents institucionals).
6. Cuida la coherència estilística.
El llenguatge generat per IA pot resultar massa homogeni o artificiós. Revisa sempre la redacció per assegurar-te que manté la teua veu i coherència discursiva.
7. Controla les dades personals i la confidencialitat.
No introduïsques dades sensibles ni fragments de documents privats en aplicacions de IA obertes. Recorda que moltes eines conserven o processen el contingut per entrenament.
8. Mantén una actitud reflexiva.
Anota què t’ha aportat la IA, quines decisions has pres i com ha influït en la teua forma de pensar. Aquesta metacognició és una competència clau de l’aprenentatge universitari.
5.3. Recomanacions per a tutors i tribunals
1. Definir límits clars en la guia del treball.
Es recomana incloure en la guia de TFG/TFM un apartat específic sobre l’ús d’eines d’IA: què s’hi permet, què s’hi prohibeix i com s’ha de declarar. Això evita interpretacions arbitràries.
2. Fomentar la transparència, no la por.
El discurs institucional no hauria de basar-se en la prohibició, sinó en la responsabilitat. La major part dels usos d’IA poden ser legítims si hi ha claredat i control humà.
3. Avaluar processos, no sols resultats.
Cal valorar l’esforç cognitiu, la coherència del raonament i la capacitat crítica de l’estudiant. La presència d’IA no invalida l’autoria si l’aprenentatge és demostrable.
4. Detectar indicadors d’autoria dubtosa.
Text excessivament neutre, cites inexistents, incoherències entre apartats o manca d’esborranys poden indicar una redacció automatitzada. En eixos casos, és legítim requerir una explicació o defensa oral.
5. Promoure una cultura d’alfabetització digital crítica.
Els tutors poden orientar els estudiants en l’ús de la IA com a eina de pensament i revisió, no com a substitut del treball intel·lectual. La formació ha d’incloure qüestions de drets d’autor, biaixos algorítmics i responsabilitat informacional.
5.4. Errors freqüents a evitar
Usar IA per generar tot el text o seccions completes sense control ni revisió.
Copiar literalment respostes de models generatius sense citar ni transformar-les.
Assumir que el text generat és fiable o verificat. La IA inventa cites, dades o noms propis si no se supervisa.
Declarar “no he usat IA” quan s’ha emprat realment (per exemple, per millorar estil o resumir fonts). L’omissió també és una forma de manca d’integritat.
Emprar eines sense conéixer-ne les polítiques de privadesa o sense saber on es guarden les dades.
5.5. Conclusions generals
La redacció assistida per intel·ligència artificial és compatible amb la integritat acadèmica sempre que:
l’aportació humana siga substancial i verificable,
la intervenció de la IA siga transparent i documentada,
i l’estudiant mantinga el control creatiu i la responsabilitat final del contingut.
En paraules de la UNESCO, “l’educació ha de garantir que la IA siga una eina d’apoderament, no de substitució.”
Per això, el futur de l’autoria acadèmica no passa per prohibir la tecnologia, sinó per ensenyar a utilitzar-la amb criteri, ètica i sentit crític.