In questi giorni Wikipedia, la nota enciclopedia online libera e gratuita, attraverso un post pubblicato sul suo blog ufficiale, ha annunciato l'adozione di un nuovo programma di intelligenza artificiale che le permetterà di individuare errori e false informazioni nelle sue voci e garantirsi così un futuro migliore. In pratica si tratta di un sistema chiamato Objective Revision Evaluation Service, (noto anche con l'acronimo ORES), e sviluppato da Aaron Halfaker, ricercatore di Wikimedia Foundation: la fondazione no-profit che gestisce Wikipedia. In sostanza, come già anticipato, l'obiettivo principale di quest'adozione è quello di mantenere alta la qualità degli articoli dell'enciclopedia, facilitando il lavoro di controllo e revisione delle modifiche effettuate: secondo recenti stime, ogni giorno su Wikipedia si contano mezzo milione di operazioni di editing. Inoltre nello scorso mese di Ottobre solo nella versione italiana, (che comprende oltre 1.238.000 voci, con una crescita media mensile di circa 10.000 articoli), è stata registrata un'attività di 2.238 utenti per un totale di 515.000 interventi. Ciò nonostante però gli utenti che contribuiscono alla compilazione della più grande enciclopedia online del mondo sono in calo, soprattutto nella versione in lingua inglese, la quale negli ultimi 8 anni ha perso circa il 40% degli autori attivi, stabilizzandosi intorno alle 30.000 firme. Questo anche perché diventare nuovi editor è spesso complicato: di frequente le modifiche apportate non vengono accettate perché gli strumenti semiautomatici che sovrintendono il processo di accettazione e pubblicazione sono estremamente rigidi e scartano l'intervento appena caricato; anche se contiene errori minimali e trascurabili. Tuttavia va anche detto che chiunque, anche in modo anonimo, può contribuire a cambiare, aggiungere o eliminare parti delle voci inserite: il risultato di ciò è che a volte, (oltre ad errori in buona fede che rischiano di passare inosservati), si riscontrano veri e propri atti di vandalismo intenzionale contro specifiche voci, soprattutto se non protette. Difatti esistono società ed aziende che assumono degli "editor mercenari" pronti ad intervenire sulle voci indicate per forzarne i contenuti e piegarli secondo i desideri dei committenti. Paradossalmente però le troppe regole poste dal meccanismo sembrano appesantirlo eccessivamente, allontanando anche le "energie fresche". Ecco perché la Wikimedia Foundation, le sta tentando tutte e quella dell'intelligenza artificiale sembra essere la strada su cui puntare: ORES, come già detto, consentirà di distinguere gli errori in buona fede, (effettuati magari dai nuovi aspiranti collaboratori), dai vandali di contenuti; tenendo dentro le modifiche effettuate dai primi, (invitandoli magari a rivederle in modo meno drastico di quanto accada ora), e facendo pulizia senza pietà di quanto caricato dai secondi. Tuttavia spetterà sempre alla mano umana, (assistita dall'intelligenza artificiale), decidere il da farsi per preservare la qualità e la credibilità di Wikipedia. Ad ogni modo, considerando che il sistema utilizza un set di algoritmi open source, noti come SciKit-Learn, per scandagliare, appunto, le modifiche dannose e separarle dai cambiamenti prodotti dai benintenzionati, anche se contenenti delle imprecisioni, Wikipedia potrebbe ottenere un duplice risultato: ripulirsi dalle numerose imperfezioni, dai rischi di bufale e dalle complete falsità ed, allo stesso tempo, tentare d'invertire il declino degli editor, dando il via ad una nuova stagione di collaborazione. Inoltre ORES, come tutti i sistemi di machine learning, (alla pari di quelli utilizzati e sviluppati da altri colossi come Google o Facebook), può imparare e raffinarsi con il passare del tempo, classificando la qualità delle modifiche effettuate e stabilendo così quelle prodotte in buona fede e quelle in mala fede. Al riguardo lo stesso Aaron Halfaker ha spiegato: "L'atteggiamento aggressivo che hanno gli utenti di Wikipedia nel controllare i contenuti modificati proviene dal fatto che non sono incoraggiati ad avere un'interazione umana con le persone". Ed a quanto pare ORES si occuperà anche di questo: rendere i rapporti più lineari e meno traumatici. Comunque sia il sistema in questione funzionerà inizialmente nelle versioni in inglese, portoghese, turco e farsi di Wikipedia; ciò significa che prima di apprezzarne gli effetti nella versione in italiano bisognerà aspettare un po'.
In questi giorni Wikipedia, la nota enciclopedia online libera e gratuita, attraverso un post pubblicato sul suo blog ufficiale, ha annunciato l'adozione di un nuovo programma di intelligenza artificiale che le permetterà di individuare errori e false informazioni nelle sue voci e garantirsi così un futuro migliore. In pratica si tratta di un sistema chiamato Objective Revision Evaluation Service, (noto anche con l'acronimo ORES), e sviluppato da Aaron Halfaker, ricercatore di Wikimedia Foundation: la fondazione no-profit che gestisce Wikipedia. In sostanza, come già anticipato, l'obiettivo principale di quest'adozione è quello di mantenere alta la qualità degli articoli dell'enciclopedia, facilitando il lavoro di controllo e revisione delle modifiche effettuate: secondo recenti stime, ogni giorno su Wikipedia si contano mezzo milione di operazioni di editing. Inoltre nello scorso mese di Ottobre solo nella versione italiana, (che comprende oltre 1.238.000 voci, con una crescita media mensile di circa 10.000 articoli), è stata registrata un'attività di 2.238 utenti per un totale di 515.000 interventi. Ciò nonostante però gli utenti che contribuiscono alla compilazione della più grande enciclopedia online del mondo sono in calo, soprattutto nella versione in lingua inglese, la quale negli ultimi 8 anni ha perso circa il 40% degli autori attivi, stabilizzandosi intorno alle 30.000 firme. Questo anche perché diventare nuovi editor è spesso complicato: di frequente le modifiche apportate non vengono accettate perché gli strumenti semiautomatici che sovrintendono il processo di accettazione e pubblicazione sono estremamente rigidi e scartano l'intervento appena caricato; anche se contiene errori minimali e trascurabili. Tuttavia va anche detto che chiunque, anche in modo anonimo, può contribuire a cambiare, aggiungere o eliminare parti delle voci inserite: il risultato di ciò è che a volte, (oltre ad errori in buona fede che rischiano di passare inosservati), si riscontrano veri e propri atti di vandalismo intenzionale contro specifiche voci, soprattutto se non protette. Difatti esistono società ed aziende che assumono degli "editor mercenari" pronti ad intervenire sulle voci indicate per forzarne i contenuti e piegarli secondo i desideri dei committenti. Paradossalmente però le troppe regole poste dal meccanismo sembrano appesantirlo eccessivamente, allontanando anche le "energie fresche". Ecco perché la Wikimedia Foundation, le sta tentando tutte e quella dell'intelligenza artificiale sembra essere la strada su cui puntare: ORES, come già detto, consentirà di distinguere gli errori in buona fede, (effettuati magari dai nuovi aspiranti collaboratori), dai vandali di contenuti; tenendo dentro le modifiche effettuate dai primi, (invitandoli magari a rivederle in modo meno drastico di quanto accada ora), e facendo pulizia senza pietà di quanto caricato dai secondi. Tuttavia spetterà sempre alla mano umana, (assistita dall'intelligenza artificiale), decidere il da farsi per preservare la qualità e la credibilità di Wikipedia. Ad ogni modo, considerando che il sistema utilizza un set di algoritmi open source, noti come SciKit-Learn, per scandagliare, appunto, le modifiche dannose e separarle dai cambiamenti prodotti dai benintenzionati, anche se contenenti delle imprecisioni, Wikipedia potrebbe ottenere un duplice risultato: ripulirsi dalle numerose imperfezioni, dai rischi di bufale e dalle complete falsità ed, allo stesso tempo, tentare d'invertire il declino degli editor, dando il via ad una nuova stagione di collaborazione. Inoltre ORES, come tutti i sistemi di machine learning, (alla pari di quelli utilizzati e sviluppati da altri colossi come Google o Facebook), può imparare e raffinarsi con il passare del tempo, classificando la qualità delle modifiche effettuate e stabilendo così quelle prodotte in buona fede e quelle in mala fede. Al riguardo lo stesso Aaron Halfaker ha spiegato: "L'atteggiamento aggressivo che hanno gli utenti di Wikipedia nel controllare i contenuti modificati proviene dal fatto che non sono incoraggiati ad avere un'interazione umana con le persone". Ed a quanto pare ORES si occuperà anche di questo: rendere i rapporti più lineari e meno traumatici. Comunque sia il sistema in questione funzionerà inizialmente nelle versioni in inglese, portoghese, turco e farsi di Wikipedia; ciò significa che prima di apprezzarne gli effetti nella versione in italiano bisognerà aspettare un po'.
Commenti
Posta un commento