ServizioContenuto basato su fatti, osservati e verificati dal reporter in modo diretto o riportati da fonti verificate e attendibili.Scopri di piùChatGPT

Uomo o intelligenza artificiale? come riconoscere immagini e testi generati dalle macchine

Esistono software che ci aiutano a capire quando un contenuto è di un uomo o dell’intelligenza artificiale? La domanda è rilevante e per ora non ha una soluzione univoca

di Gianni Rusconi

3' di lettura

Fra gli ultimi aggiornamenti che riguardano ChatGpt, merita di essere commentato il seguente: la maggior parte degli utenti che sta testando il nuovo motore di ricerca di Microsoft potenziato con la stessa tecnologia del chatbot sviluppato da OpenAI avrà la possibilità di accedere a un'impostazione che permette di decidere l'umore delle risposte generate.

Bing, in altre parole, potrà interloquire con noi in maniera “equilibrata”, “creativa” o “precisa”, e su nostra precisa indicazione. Ennesimo passo in avanti per rendere la conversazione con un'AI ancora più umana e verosimile? Probabilmente sì.

Loading...

In ogni caso i dirigenti di Redmond hanno avvertito con un tweet come siano “possibili errori” e come sia sempre consigliato controllare la veridicità delle risposte prodotte dalla macchina. Il punto chiave della “rivoluzione” ChatGpt sta proprio qui: quanto sono affidabili i contenuti che ci mette a disposizione?

E quanto sono e saranno riconoscibili rispetto a quelli creati dagli essere umani? A quest'ultima domanda rispondono alcuni software, la cui peculiarità è per l'appunto rilevare i segni distintivi dell'AI di tipo generativo e determinare se un testo o un'immagine sono stati creati da ChatGPT o da altre intelligenze artificiali.

Il nodo del watermark

La stessa OpenAI, quando negli Stati Uniti il fenomeno è dilagato nelle scuole (università comprese) per produrre testi scritti, ha precisato come fossero già in fase di sviluppo degli strumenti per aiutare chiunque (insegnanti ed educatori in genere) a identificare il testo generato dagli algoritmi.

La soluzione finale prospettata dalla società guidata dal Ceo Sam Altman potrebbe essere una sorta di “watermark” invisibile da incollare ai contenuti per evitare di utilizzare un output generato fa ChatGPT facendolo passare per umano e prevenire di conseguenza il rischio di plagio o di impersonare in modo malevolo lo stile di scrittura di qualcuno.

Nel frattempo, per riconoscere la paternità di un testo o un'immagine creata da un bot si può ricorrere a software di vario genere (gratuiti o a pagamento) e con diverse capacità di comprensione.

La lista dei software

La lista delle soluzioni disponibili (fra interfacce web, modelli di deep learning e applicazioni open source) è abbastanza nutrita ma resta il fatto che, in generale, tali strumenti (soprattutto i “free software”) non sono in grado di identificare tutte le intelligenze artificiali potenzialmente utilizzate per generare contenuti.

Il “classificatore” (AI Text Classifier) sviluppato da OpenAI e addestrato a rilevare le “prove” che un testo sia stato scritto da ChatGPT e simili, ne è una conferma: per stessa ammissione della startup, la tecnologia è in costante affinamento e al momento attendibile solo in parte, aprendo al rischio di “falsi positivi”.

Parliamo dunque di software fallibili del riconoscere l'origine di un contenuti scritto anche se sicuramente utili a tale scopo: GPTZero, per esempio, creato da Edward Tian, uno studente dell'Università di Princeton, che analizza un testo a partire da due caratteristiche principali delle informazioni in esso riportate, la perplessità (perplexity) e l'irruenza (burstiness).

GPT-2 Detector, a sua volta, è un tool di classificazione open-source in grado di riconoscere se un testo è stato generato grazie a tecnologia GPT-2 e lo stesso fa anche Open AI Detector, sviluppato e ospitato da Hugging Face.

Stable Attribution, invece, permette di identificare quali elementi grafici sono stati impiegati per addestrare il software di intelligenza artificiale che genera immagini, cerca gli elementi grafici su cui è stata addestrata l'AI.

Al riconoscimento delle immagini sono rivolti anche AI Image Forensics (creato da un organismo non profit europeo), che rileva caratteristiche proprie delle intelligenze artificiali come la ripetitività di determinati pattern e la presenza di artefatti di compressione, oppure Sightengine, un servizio (a pagamento) che utilizza il machine learning per intercettare contenuti non appropriati o manipolati ed evidentemente generati da AI.

Interessante, infine, è anche Fakespot, uno strumento che grazie alle tecniche di apprendimento automatico va ad analizzare le recensioni dei prodotti online e ad identificare quelle che potrebbero essere state create dall'AI generativa.

Riproduzione riservata ©

loading...

Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti