NotizieTech

i bot non inquinino le informazioni

Il Garante per le Comunicazioni, Antonio Martuscello, punta il dito contro i bot, ravvedendo in essi un elemento di distorsione che il legislatore deve farsi carico di regolamentare. Il motivo è in quell’equilibrio di informazioni che tutti i modelli economici hanno sempre posto alla base di tutto, affinché tutti gli attori del mercato possano avere pari diritti di fronte alle proprie scelte. Così Martuscello: “Dimentichiamo quel modello walrasiano, in cui l’informazione è completa.
Nel modello che caratterizza la nostra economia, invece, l’informazione è spesso incompleta, talvolta addirittura asimmetrica, e non sempre i soggetti godono del medesimo grado di conoscenza”.

In passato la sfida era alla carenza di informazioni, che spesso lasciava i contraenti in posizione asimmetrica: chi acquistava non conosceva appieno i propri diritti e così si è dovuto mettere mano alla disciplina contrattualistica per far sì che i flussi informativi potessero essere equilibrati (sia pur se ancora spesso inefficienti, ma almeno formalmente corretti). Il principio era saldo: “l’obiettivo del legislatore è stato quello di creare le condizioni strutturali affinché le informazioni possano circolare tra gli operatori in maniera efficiente, consentendo che le scelte dei singoli siano libere e razionali, basate sulla conoscenza di dati obiettivi e comparabili”.

Oggi qualcosa è cambiato. In un’epoca nella quale si ha in teoria un ben più semplice accesso alle informazioni, sia in termini di velocità che di accessibilità e quantità, il rischio è che si inneschino meccanismi inquinanti in grado di distogliere la reale capacità di discernimento dei singoli. “La logica della condivisione tra pari”, spiega il Garante, “determina molteplici cambiamenti e il consumatore è sempre più alla ricerca di esperienze di consumo altrui. Dinanzi a questo scenario diventa sempre più facile introdurre elementi distorsivi che, sfruttando le emozioni, possono provocare un corto circuito su un’analisi razionale”. Il riferimento è chiaro: se l’utente tende a fidarsi di altri utenti, cercando nelle recensioni un’opinione paritetica nella quale confidare, il rischio è che si inneschi un meccanismo parassita che, inquinando i dati disponibili (le recensioni stesse), porti alla deviazione delle scelte finali. Se il mercato perfetto di keynesiana memoria (quello nel quale ogni persona è perfettamente informata su tutto e su tutti) rimane un’utopia frutto della teoria macroeconomica, la distorsione delle recensioni può tuttavia andare in direzione uguale e contraria. Con forti effetti deleteri che l’AGCOM ha il dovere di osteggiare.

Ma l’esempio delle recensioni non è che uno soltanto dei campi di applicazione possibili: l’opinione politica, su ben altro fronte, non funziona in modo dissimile ed il report “Persuasori social” ne ha ben tracciate le distorsioni. Quel che l’AGCOM vuole evitare è che si mettano algoritmi pericolosi in mano a robot che, disseminando capillarmente opinioni, siano in grado di generare un effetto-gregge che porta infine gli utenti nella direzione sbagliata. Il rischio è infatti quello di confondere il mercato, far smarrire i consumatori, distrarre gli elettori e generare così uno stato di caos che non si rivela utile a nessuno se non a chi intende approfittarne. “Se è la fiducia ormai a costituire la principale valuta del mercato,
attenzione: essa si guadagna in gocce, ma si perde a litri”.

Il rischio è identificato quindi: l’AGCOM intende essere vigile per “creare le condizioni strutturali per una circolazione efficiente delle informazioni”. Tutti avvisati, perché quella dell’AGCOM è una promessa rinnovata. Il problema è già stato posto più volte, però: se fermare i bot appare una missione complessa (che scatenerebbe una probabile ed infinita lotta tra guardia e ladri), una richiesta di trasparenza alle piattaforme appare invece del tutto legittima. A beneficio di tutti.

Source link

Show More
Quiere un sitio web como eso? Escribe nós

Related Articles

Lascia un commento

Close