Home Cultura Intelligenza Artificiale: dati pericolosi

Intelligenza Artificiale: dati pericolosi

152
0

L’AI rappresenta un nuovo salto tecnologico, dopo la diffusione di Internet e quella dei social media, con cui l’informazione deve fare inevitabilmente i conti. E il caso aperto dalla disputa in atto tra il New York Times e OpenAI per lo sviluppo di ChatGpt evidenzia ancora di più il confine labile che c’è tra la crescita dell’intelligenza artificiale e la difesa del copyright, bene primario per qualsiasi editore.

La volontà di collaborare, che si è concretizzata in una trattativa serrata per l’utilizzo da parte di OpenAi del gigantesco serbatoio di notizie e informazioni della prima testata giornalistica al mondo, finisce dove si fa strada il rischio che il saccheggio di dati, pure se ben pagato, possa compromettere la fruizione di contenuti intermediata da NYT, rendendo ChatGPT un concorrente diretto.

Di fatto, una collaborazione che può allargare le fonti dei ricavi finirebbe per cannibalizzarli, fino a comprometterli. Ecco perché la possibilità che si passi da una fase di negoziazione a un gigantesco contenzioso legale sembra piuttosto concreta. In ballo c’è la sopravvivenza dell’editoria, che non può fare a meno della proprietà esclusiva dei propri contenuti, che va monetizzata ma non svenduta a rischio di perderla.

Il tema di fondo resta l’origine dei dati e delle informazioni. Se l’intelligenza artificiale arrivasse a disporre dei contenuti degli editori senza una regolamentazione corretta e correttamente remunerata dell’accesso l’effetto sostituzione sarebbe inevitabile, con gli utenti che potrebbero accedere tramite ChatGPT e tutte le applicazioni simili ai contenuti della più autorevole delle testate, il New York Times, spogliati del marchio e della proprietà intellettuale.

La certezza che il saccheggio di dati, notizie e informazioni sia di fatto già avvenuto nell’addestramento dei chatbot, sempre più allenati a dare risposte convincenti alle domande di chi li interroga, aggiunge al delicato dossier una serie di elementi rilevanti dal punto di vista legale. Se si finisse veramente in tribunale, OpenAI potrebbe essere chiamata a dismettere i dati utilizzati finora e a pagare pesanti sanzioni.

D’altra parte gli editori, a partire dal New York Times e scendendo a tutte le testate che fanno informazione, non si possono permettere di demonizzare l’intelligenza artificiale chiudendo all’utilizzo di uno strumento che sta già cambiando le abitudini di accesso ai contenuti. L’equilibrio sottile che c’è tra lo sviluppo dell’innovazione tecnologica e la difesa del copyright passa per la predisposizione di regole e di procedure negoziate che ancora non ci sono e che sembrano ancora difficili da costruire.

L’intelligenza artificiale prenderà il sopravvento se non ci sarà una regolamentazione adatta e condivisa da ogni nazione in proposito. Credendo di avere in possesso un mezzo incredibile per sopraffare gli altri, si scatenerà il vaso di Pandora. Nel momento in cui noi, per indolenza o convenienza, lasceremo fare ai circuiti integrati quello che sappiamo ancora fare, saremo vulnerabili. E’ cosi che è sempre stato previsto in quei film di fantascienza che molti credono siano impossibili ad avverarsi. Meditate bene. Tra fine e strumento il confine è sottile, così come i nanosecondi di calcolo che può impiegare un elaboratore computerizzato con i suoi freddi, freddissimi algoritmi di calcolo, e decidere delle nostre vite.

(Fonte:ADN-Kronos Di Fabio Insenga)

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui