IA mund ta përmirësojë vërtet efikasitetin dhe rendimentin në gazetari. Megjithatë, një nga sfidat kryesore të përdorimit të IA nga gazetarët dhe redaksitë është që këto sisteme nuk do theksojnë edhe më shumë apo amplifikojnë paragjykimet dhe diskriminimin. Algoritmet IA kanë po aq paragjykim sa edhe të dhënat që iu furnizohen atyre dhe me të cilat ato trajnohen. Nëse një sistem IA mbështetet në të dhëna që përmbajnë paragjykime, rezultatet që prodhon ky sistem do t’i pasqyrojnë këto paragjykime. Rezultati? Raportime të pasakta ose diskriminuese të grupeve ose çështjeve të caktuara.
Paragjykimi në IA mund të shfaqet në disa mënyra. Për shembull, një algoritëm që përdoret për të rekomanduar lajme mund të favorizojë disa pikëpamje mbi të tjerat, duke çuar në një paraqitje të pasaktë të ngjarjeve. Po ashtu, një sistem IA që është trajnuar me të dhëna historike, pa dashje, mund të përjetësojë paragjykime racore, gjinore ose sociale në raportimet e tij. Kjo mund të çojë në mospërfaqësimin e grupeve të pakicave ose në përforcimin e stereotipeve të dëmshme.
Për të parandaluar paragjykimin, mediat duhet të sigurohen që sistemet IA të trajnohen me të dhëna të ndryshme dhe përfaqësuese që përfshijnë shumë pikëpamje dhe këndvështrime. Kjo përfshin sigurinë që të dhënat e përdorura pasqyrojnë të gjithë spektrin e shoqërisë, nga etnitë deri te kulturat e ndryshme. Këto sisteme po ashtu duhet të vihen në provë dhe të kontrollohen në mënyrë të rregullt që të identifikojnë paragjykime të mundshme. Nëse një algoritëm gjen se po favorizon një grup më shumë se një tjetër, ai duhet të ri-konfigurohet që të prodhojë rezultate më të balancuara dhe të drejta.
Mbikëqyrja e njeriut është thelbësore për të parandaluar paragjykimet. Gazetarët e redaksitë duhet të monitorojnë sistemet IA të mbajnë sytë hapur për raportime të shtrembëruara, të paplota, ose të pasakta. Duke përdorur IA për të siguruar që mediat të jenë të drejta dhe përfshirëse në vend të paragjykimeve, gazetaria mund të kontribuojë në një shoqëri më të barabartë.