Albanian Media Institute | Instituti Shqiptar i Medias
  • Home
  • About Us
  • Staff
  • News
    • Ami News
    • Media Development
    • Intervista
    • Promoting constructive journalism
  • Publications
  • Projects
  • Contact
No Result
View All Result
Albanian Media Institute | Instituti Shqiptar i Medias
  • Home
  • About Us
  • Staff
  • News
    • Ami News
    • Media Development
    • Intervista
    • Promoting constructive journalism
  • Publications
  • Projects
  • Contact
No Result
View All Result
Albanian Media Institute | Instituti Shqiptar i Medias
No Result
View All Result
Home IA
Përdorimi i IA në Redaksi

Përdorimi i IA në Redaksi

in IA

-Kuadri ligjor dhe etik për përdorimin e përgjegjshëm të inteligjencës artificiale në gazetari-

Roden Hoxha

Integrimi i inteligjencës artificiale (IA) në gazetari po transformon mënyrën sesi lajmet hulumtohen, prodhohen dhe shpërndahen. Ky transformim sjell mundësi të mëdha, si rritja e efikasitetit, automatizimi i detyrave rutinë dhe mundësi të reja analize të bazuara në të dhëna. Por njëkohësisht kjo krijon sfida serioze. Këto përfshijnë dezinformimin, krijimin e përmbajtjeve të pasakta apo të “halucinuara” nga IA, manipulimet përmes teknologjisë deepfake, humbjen e vendeve të punës, problemet e transparencës editoriale dhe gërryerjen e besimit publik.

Ky vlerësim praktikash përpiqet të analizojë kuadrot ligjore, etike dhe praktike aktuale dhe ato në zhvillim në arenën rajonale dhe ndërkombëtare, të cilat rregullojnë përdorimin e IA në redaksi, me fokus të veçantë tek Akti i Bashkimit Evropian për IA-në. Materiali gjithashtu analizon nisma rajonale, veçanërisht në Evropën Juglindore, dhe përvijon vlerësimet etike dhe praktikat më të mira, si dhe ofron rekomandime konkrete për rregullatorët, organizatat mediatike shqiptare dhe palët e interesit, duke theksuar nevojën për një qasje strategjike dhe të bazuar në të drejtat themelore në qeverisjen e IA-së në gazetari.

Redaksitë në mbarë botën po eksperimentojnë me mjete që automatizojnë transkriptimin, sugjerojnë tituj, gjenerojnë përmbajtje të shkruar dhe analizojnë sasi të mëdha të dhënash, duke synuar gjithmonë ruajtjen e vlerave etike në prodhimin e përmbajtjes gazetareske. Këto kapacitete, ndonëse të fuqishme, ngrenë pyetje që prekin thelbin e qëllimit të gazetarisë: kush është përgjegjës për të vërtetën? Si mund të garantojmë llogaridhënie kur një makinë kontribuon në produktin përfundimtar? Çfarë ndodh me besimin e publikut kur përmbajtja gjenerohet apo manipulohet nga sisteme që nuk mund të arsyetojnë apo verifikojnë fakte?

Teksa industria mediatike përballet me këto pyetje, rregullatorët dhe institucionet kanë filluar të marrin hapat e parë konkretë në adresimin e kësaj çështje. Bashkimi Evropian, përmes Aktit për Inteligjencën Artificiale, ka vendosur themelet për një kuadër gjithëpërfshirës që klasifikon sistemet e IA-së sipas niveleve të rrezikut dhe përcakton detyrime specifike për zhvilluesit dhe përdoruesit. Në të njëjtën kohë, institucione si Këshilli i Evropës dhe UNESCO ofrojnë udhëzime etike që theksojnë transparencën, mbikëqyrjen njerëzore dhe respektimin e të drejtave themelore. Në Evropën Juglindore, vende të ndryshme kanë filluar të përafrohen me këto standarde, shpesh përmes partneriteteve me organizata ndërkombëtare dhe zhvillimit të strategjive kombëtare.

  1. Kuadri Rregullator i BE-së: Akti për Inteligjencën Artificiale dhe Përtej

Akti për Inteligjencën Artificiale i Bashkimit Evropian, i miratuar në vitin 2024, është instrumenti i parë ligjor horizontal në botë kushtuar rregullimit të inteligjencës artificiale. Ai klasifikon sistemet e IA-së në katër kategori rreziku: të papranueshme, me rrezik të lartë, të kufizuara dhe minimale. Akti ndalon përdorimin e sistemeve të IA-së që paraqesin rrezik të papranueshëm për të drejtat themelore, siç janë renditjet sociale (social scoring) dhe disa forma të survejimit biometrik. Edhe pse këto ndalime mund të mos prekin drejtpërdrejt gazetarinë, ato vendosin një standard të fortë normativ.

Për mediat, dispozitat më të rëndësishme lidhen me inteligjencën artificiale me përdorim të përgjithshëm dhe sistemet me rrezik të lartë. Modelet gjenerative të IA-së, si ChatGPT, Claude apo mjetet për krijimin e imazheve sintetike si Midjourney, duhet të përmbushin kërkesat bazike për transparencë. Ofruesit e këtyre modeleve janë të detyruar të bëjnë të ditur kur përmbajtja është krijuar nga IA, të garantojnë që modelet e tyre të mos prodhojnë përmbajtje të paligjshme, dhe të publikojnë përmbledhje të të dhënave me të cilat janë trajnuar modelet, veçanërisht kur përfshihet përmbajtje e mbrojtur nga e drejta e autorit. Ky aspekt i fundit adreson shqetësimet në rritje të industrisë së gazetarisë lidhur me përdorimin e paautorizuar të përmbajtjes së lajmeve për trajnimin e modeleve të IA-së.

Akti gjithashtu përfshin një kërkesë që deepfake (audio, imazhe apo video sintetike që imitojnë në mënyrë bindëse realitetin) të jenë qartazi të etiketuar si të tilla gjatë shpërndarjes. Kjo dispozitë ka rëndësi të menjëhershme për redaksitë, të cilat mund të përballen me ose të jenë të tunduara të përdorin pamje të krijuara nga IA në raportim. Si pasojë e këtyre normave, transparenca ndaj publikut bëhet një detyrim ligjor, jo thjesht etik.

Përveç Aktit për IA-në, ekzistojnë edhe akte të tjera ligjore të BE-së që, ndonëse nuk janë të fokusuara ekskluzivisht tek IA-ja, formësojnë peizazhin e mediave digjitale. Akti për Shërbimet Digjitale (Digital Services Act) detyron platformat e mëdha të vlerësojnë dhe të zbusin rreziqet sistemike, përfshirë përhapjen e dezinformimit, një pjesë e konsiderueshme e të cilit tani gjenerohet nga IA. Akti për Lirinë e Medias në Evropë (European Media Freedom Act), që pritet të hyjë plotësisht në fuqi më 8 gusht 2025, thekson pavarësinë editoriale dhe transparencën në funksionimin e mediave. Së bashku, këto instrumente krijojnë një mjedis rregullator shumë-shtresor që synon të sigurojë që IA të forcojë, e jo të minojë, diskursin demokratik.

  1. Kuadri Etik i Këshillit të Evropës dhe UNESCO-s

Këshilli i Evropës ka trajtuar gjithashtu përdorimin e inteligjencës artificiale në gazetari përmes udhëzimeve të vitit 2023. Këto rekomandime, ndonëse jo detyruese ligjërisht, kanë ndikim të madh dhe theksojnë rëndësinë e mbikëqyrjes njerëzore në të gjitha vendimet editoriale që përfshijnë IA-në. Ato mbështesin transparencën ndaj audiencës, përfshirë etiketimin e qartë të përmbajtjes së krijuar ose të modifikuar nga IA, dhe nxisë organizatat mediatike të kryejnë vlerësime të rrezikut përpara se të përshtatin sisteme të IA-së.

Udhëzimet theksojnë gjithashtu nevojën për të ruajtur pluralizmin dhe diversitetin në përmbajtjen mediatike. Algoritmet e trajnuara me të dhëna të njëanshme mund të shtypin pa dashje pikëpamjet e pakicave ose të përforcojnë stereotipa. Gazetarët dhe redaktorët duhet të qëndrojnë vigjilentë, duke shqyrtuar prodhimet e IA-së për drejtësi dhe përfaqësim të balancuar. Udhëzimet nënvizojnë se përgjegjësia përfundimtare për përmbajtjen e publikuar duhet të mbetet gjithmonë tek profesionistët njerëzorë, pavarësisht nga mjetet teknologjike të përdorura.

Puna e UNESCO-s, veçanërisht në Evropën Juglindore, plotëson përpjekjet e deritanishme të Këshillit të Evropës. Përmes projektit “Ndërtimi i Besimit në Media” (Building Trust in Media), UNESCO ka mbledhur aktorë rajonalë për të zhvilluar parime të përbashkëta për përdorimin etik të IA-së në gazetari. Një rezultat kyç i këtij procesi ka qenë deklarata rajonale e vitit 2024, e miratuar nga përfaqësues nga Shqipëria dhe vendet fqinje, e cila artikulon një angazhim ndaj transparencës, mbikëqyrjes njerëzore dhe trajtimit të drejtë të përmbajtjes gazetareske gjatë trajnimit dhe zbatimit të IA-së.

Më rëndësi të veçantë është fakti se deklarata kërkoi gjithashtu mekanizma të drejtë për ndarjen e të ardhurave të gjeneruara nga produktet mediatike. Meqë sistemet e IA-së po mbështeten gjithnjë e më shumë në përmbajtjen ekzistuese të lajmeve për të gjeneruar përgjigje ose përmbledhje, botuesit  e ndryshëm argumentuan se këto media duhet të kompensohen si pasojë e përdorimit të burimeve të tyre. Kjo është veçanërisht e rëndësishme për mediat më të vogla në Evropën Juglindore, të cilat shpesh përballen me vështirësi për të garantuar një qëndrueshmëri financiare.

  1. Prirjet Kombëtare dhe Rajonale mbi IA-në dhe Gazetarinë

Vendet e Evropës Juglindore kanë filluar t’i përgjigjen sfidës së inteligjencës artificiale si përmes masave rregulluese, ashtu edhe atyre vetërregulluese. Serbia, për shembull, në vitin 2024 rishikoi Kodin e Etikës së Gazetarëve për të përfshirë dispozita për përdorimin e IA-së, duke u bërë një nga vendet e para në rajon që e trajton në mënyrë të drejtpërdrejtë këtë çështje. Kodi i rishikuar detyron gazetarët të zbulojnë kur përdorin IA gjatë prodhimit të përmbajtjes dhe forcon parimin se mbikëqyrja njerëzore është thelbësore.

Kroacia, si shtet anëtar i BE-së, ka nisur procesin e hartimit të legjislacionit kombëtar për zbatimin e Aktit për IA-në. Kjo nismë po koordinohet nga Ministria e Tranzicionit Digjital dhe synon harmonizimin me detyrimet e BE-së duke adresuar njëkohësisht shqetësime kombëtare, si pluralizmi mediatik dhe transparenca në përdorimin e IA-së.

Vendet e tjera perëndimore, ndonëse nuk janë të detyruara nga ligji ndërkombëtar, po formësojnë gjithashtu norma përmes standardeve të udhëhequra nga industria. Në Shtetet e Bashkuara, organizata të mëdha të lajmeve si Associated Press dhe Reuters kanë miratuar politika të brendshme që kufizojnë përdorimin e IA-së në prodhimin e përmbajtjes. Këto politika zakonisht ndalojnë publikimin e materialeve të krijuara nga IA nëse nuk janë rishikuar dhe redaktuar nga gazetarë njerëzorë. Ato gjithashtu ndalojnë futjen e informacionit konfidencial ose të ndjeshëm në mjetet gjenerative të IA-së, duke njohur rrezikun e rrjedhjes së të dhënave dhe përdorimit të paautorizuar.

Kompani të mëdha mediatike gjermane si Axel Springer apo Deutsche Welle kanë filluar të krijojnë task-forca për IA dhe komitete etike. Franca ende nuk ka ligje specifike për IA-në në media, por çështja e deepfake ka hyrë në debatin publik pas incidenteve si videoja e falsifikuar e presidentit Macron. Rregullatori francez CSA (tani ARCOM) ka udhëzime për moderimin e platformave online që përfshijnë edhe manipulimin e përmbajtjes.

Në tërësi, peizazhi në vendet perëndimore tregon një prirje të fortë drejt vetërregullimit të udhëhequr nga parimet thelbësore të gazetarisë, ndërsa rregullimi ligjor mbetet pas, por mund të përshpejtohet teksa rriten shqetësimet. Përvoja e redaksive rajonale dhe lokale deri më tani nënvizon të njëjtat tema të hasura në Evropë dhe më gjerë: transparencë, verifikim, përgjegjësi njerëzore dhe integrim gradual të IA-së. Ekziston një kuptim i përbashkët se, ndonëse IA mund të kursejë kohë (p.sh. për automatizimin e përmbledhjeve të lajmeve apo transkriptimeve), ajo nuk është e besueshme, për nga saktësia apo konteksti, njëlloj si një gazetar i trajnuar.

  1. Rreziqet dhe Sfidat Etike të IA-së në Redaksi

Pavarësisht premtimeve për efikasitet dhe inovacion, përdorimi i inteligjencës artificiale në gazetari shoqërohet me rreziqe të shumta. Një nga shqetësimet më të mëdha është gjenerimi i përmbajtjes së rreme apo të gënjeshtërt, shpesh e njohur si “halucinacione”. Sistemet gjenerative të IA-së mund të prodhojnë informacion që në pamje të parë duket i besueshëm, por që faktikisht është i pasaktë. Në një kontekst gazetaresk, publikimi i një përmbajtjeje të tillë, edhe pa dashje, mund të ketë pasoja serioze, që variojnë nga dëmtimi i reputacionit deri te përgjegjësia ligjore.

Deepfake përbëjnë një kërcënim tjetër madhor. Këto produkte mediatike sintetike mund të imitojnë në mënyrë bindëse zërin dhe pamjen e njerëzve të vërtetë, duke e bërë më të lehtë krijimin e propagandës ose diskreditimin e gazetarëve. Në Serbi, video të gjeneruara nga IA janë përdorur për të sulmuar figura të opozitës dhe personalitete të medias.

Ekziston gjithashtu shqetësimi për përhapjen e përmbajtjes me cilësi të ulët, shpesh e quajtur “llum i IA-së” (AI slop). Fermat automatike të përmbajtjes, të ushqyera nga IA gjenerative, mund të përmbytin internetin me artikuj sipërfaqësorë ose mashtrues. Kjo jo vetëm që degradon ekosistemin informativ, por e vështirëson mbërritjen e gazetarisë së besueshme tek audienca. Efekti kumulativ mund të çojë në një rënie të besimit të publikut, veçanërisht nëse audienca nuk është në gjendje të dallojë midis lajmeve të raportuara nga njerëzit dhe atyre të gjeneruara nga sistemet mekanike.

Paragjykimi dhe diskriminimi gjithashtu janë rreziqe të pashmangshme në sistemet e IA-së të trajnuara mbi të dhëna historike. Nëse këto sisteme nuk auditohen me kujdes, ato mund të përjetësojnë ose edhe të përkeqësojnë pabarazitë ekzistuese shoqërore. Në gazetari, kjo mund të rezultojë në mbulim të njëanshëm, margjinalizim të zërave të pakicave, ose përforcim të stereotipave.

Ekzistojnë gjithashtu shqetësime për ndikimin në gazetarinë si profesion. Automatizimi i detyrave rutinë të raportimit mund të reduktojë kërkesën për gazetarë, duke ngushtuar mundësitë për karrierë në këtë fushë, si dhe duke reduktuar diversitetin në raportim. Për më tepër, nëse mjetet e IA-së përdoren për të gjeneruar artikuj të plotë pa përfshirje njerëzore, cilësia dhe thellësia e gazetarisë mund të vuajnë, duke gërryer funksionin e saj si shërbim publik.

  • Praktikat e Nevojshme për Integrimin Etik të IA-së

Si përgjigje ndaj këtyre sfidave, po shfaqet një trupë gjithnjë e më e madhe praktikash më të mira. E para ndër to është vendosja e strukturave të qarta të qeverisjes brenda organizatave mediatike. Aktorë mediatikë ndërkombëtarë kanë filluar të zhvillojnë politika të brendshme që përcaktojnë përdorimet e pranueshme të IA-së, të caktojnë personel përgjegjës dhe të përshkruajnë procedurat për shqyrtimin e rezultateve të IA-së.

Mbikëqyrja njerëzore është thelbësore. Përmbajtja e gjeneruar nga IA duhet gjithmonë të rishikohet nga redaktorë ose gazetarë përpara publikimit. Autorësia duhet të mbetet e përqendruar te profesionistët dhe mjetet e IA-së duhet të shihen si ndihmës e jo si autorë.

Transparenca është një tjetër parim kritik. Organizatat kanë si përparësi të etiketojnë qartë përmbajtjen e krijuar ose të ndihmuar nga IA, si për të ruajtur besimin e audiencës ashtu edhe për të përmbushur kërkesat ligjore që po zhvillohen. Transparenca e brendshme është gjithashtu e rëndësishme; gazetarët brenda një redaksie duhet të informohen për mjetet që përdoren, aftësitë e tyre dhe kufizimet që kanë.

Trajnimi është kyç për nevojën e ndërtimit të njohurive mbi IA-në te gazetarët. Workshop-et dhe programet e edukimit të vazhdueshëm mund të pajisin profesionistët e medias me aftësitë për të përdorur mjetet e IA-së në mënyrë efektive dhe etike. Trajnimi duhet të përfshijë jo vetëm aspektet teknike, por edhe ato etike dhe ligjore të përdorimit të IA-së, përfshirë privatësinë e të dhënave, zbutjen e paragjykimeve dhe verifikimin e fakteve.

Redaksitë duhet të përshtatin një qasje të përshkallëzuar në integrimin e IA-së. Fillimi me projekte pilot u lejon organizatave të vlerësojnë ndikimin e mjeteve të IA-së në një mjedis të kontrolluar. Këto projekte pilot duhet të përfshijnë tregues të qartë performance dhe të jenë subjekt i rishikimeve të rregullta. Mjetet e suksesshme mund të zgjerojnë përdorimin e tyre, ndërsa ato problematike mund të modifikohen ose të braktisen.

Auditimi i paragjykimeve dhe menaxhimi i gabimeve janë të qenësishme. Organizatat mediatike duhet të testojnë rregullisht sistemet e tyre të IA-së për saktësi dhe drejtësi, duke përdorur të dhëna të larmishme dhe duke kontrolluar për modele diskriminuese. Kur ndodhin gabime, duhet të ekzistojnë protokolle korrigjimi për t’i adresuar ato në mënyrë të shpejtë dhe transparente.

Bashkëpunimi në nivel industrie mund t’i fuqizojë këto përpjekje. Pjesëmarrja në nisma si Iniciativa për Besueshmërinë e Gazetarisë (Journalism Trust Initiative – JTI) ose partneritetet me kompani teknologjike mund të ndihmojnë organizatat mediatike të harmonizojnë praktikat e tyre me standardet ndërkombëtare.

  • Rekomandime mbi Politikat e Gjera

Për t’u përshtatur tashmë me peizazhin kompleks të inteligjencës artificiale, rregullatorët dhe aktorët e medias në Shqipëri duhet të përshtatin një qasje strategjike dhe bashkëpunuese. Hapi i parë është përafrimi i legjislacionit kombëtar me Aktin e BE-së për IA. Edhe para anëtarësimit formal në BE, Shqipëria mund të fillojë transpozimin e disa dispozitave kyçe, veçanërisht të atyre që janë të lehta për t’u përshtatur, në lidhje me transparencën dhe etiketimin e përmbajtjes së gjeneruar nga IA.

Zhvillimi i udhëzimeve të përbashkëta etike për IA në gazetari, bazuar në parimet e Këshillit të Evropës, do të siguronte një kuadër të qartë për përdorim etik. Është thelbësore që këto udhëzime të zhvillohen në konsultim me aktorët e interesuar, gazetarë, redaktorë, ekspertë akademikë dhe organizata të shoqërisë civile, për të siguruar përshtatshmërinë me kontekstin dhe zbatueshmërinë në praktikë.

Vetërregullimi mediatik duhet të forcohet. Kodi i Etikës së Gazetarëve në Shqipëri mund të përditësohet për të përfshirë dispozita mbi IA-në, duke ndjekur shembullin e Unionit të Gazetarëve të Serbisë. Organizatat e medias dhe sindikatat e gazetarëve duhet të luajnë një rol aktiv në monitorimin e zbatimit dhe në ofrimin e udhëzimeve. Njëkohësisht, si një mënyrë për të nxitur praktikat etike, financimi publik apo mbështetja e donatorëve për mediat mund të lidhet me respektimin e praktikave etike në përdorimin e IA-së, në programet apo projektet e mbështetura nga këta të fundit.

Ndërtimi i kapaciteteve duhet të përbëjë përparësi. Investimi në programe trajnimi për gazetarët dhe redaktorët do të sigurojë që mjetet e IA-së të përdoren me efektivitet dhe përgjegjshmëri. Për të mbështetur inovacionin pa kompromentuar etikën, rregullatorët mund të krijojnë një mjedis sandbox për eksperimentimin me IA-në në gazetari. Brenda këtij mjedisi të kontrolluar, organizatat mediatike mund të testojnë mjete të IA-së në kushte specifike, nën mbikëqyrjen dhe asistencën e aktorëve të interesuar.

Pavarësisht këtyre hapave, si kusht parësor, duhet të ruhet thelbi njerëzor i gazetarisë. Politikëbërësit dhe aktorët e medias duhet të afirmojnë se IA është një mjet për të ndihmuar, jo për të zëvendësuar, gazetarët. Duke promovuar gazetarinë investigative, duke mbështetur pavarësinë editoriale dhe duke njohur rolin e pazëvendësueshëm të gjykimit dhe empatisë njerëzore, aktorët e ndryshëm të interesit në këtë sektor duhet të sigurojnë që panorama mediatike të mbetet e qëndrueshme dhe e besueshme në një epokë tashmë kaotike të përdorimit të IA-së.

Contact Information

Telephone: ++ 355 42 229800
Email: info@institutemedia.org
Adress: Rr. Andon Zako Çajupi,
Tirana, Albania

Media Research

  • Media Legislation
  • Media Development and Independence

Media Monitoring

  • Crime and court reporting
  • Education and training of journalists
  • Corruption reporting
  • Reporting on social issues

@2025 Albanian Media Institute | Instituti Shqiptar i Medias

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Home
  • About Us
  • Staff
  • News
    • Ami News
    • Media Development
    • Intervista
    • Promoting constructive journalism
  • Publications
  • Projects
  • Contact

@2025 Albanian Media Institute | Instituti Shqiptar i Medias