LinkedIn: dati degli utenti per addestrare modelli di IA senza consenso esplicito

11 hours ago 26

LinkedIn, il popolare social network dedicato al segmento professionale, si trova al centro di una nuova controversia riguardante la privacy e l'uso dei dati degli utenti. Secondo quanto riportato da 404Media, l'azienda ha silenziosamente optato per utilizzare i dati degli account dei suoi utenti per addestrare modelli di intelligenza artificiale generativa, senza chiedere esplicitamente il loro consenso. Non è l'unica big tech ad essere entrata nell'occhio del ciclone per pratiche simili.

La notizia è emersa dopo che LinkedIn ha introdotto una nuova impostazione sulla privacy e un modulo di opt-out, poco prima di aggiornare la sua politica sulla privacy. Il nuovo testo della policy afferma chiaramente che i dati della piattaforma vengono utilizzati per addestrare modelli di intelligenza artificiale:

"Possiamo utilizzare i tuoi dati personali per migliorare, sviluppare e fornire prodotti e servizi, sviluppare e addestrare modelli di intelligenza artificiale (IA), sviluppare, fornire e personalizzare i nostri servizi, e ottenere informazioni con l'aiuto dell'IA, sistemi automatizzati e inferenze, in modo che i nostri servizi possano essere più rilevanti e utili per te e per gli altri."

LinkedIn sostiene di utilizzare l'IA generativa per scopi come le funzioni di assistenza alla scrittura. Tuttavia, questa mossa solleva importanti questioni etiche e di trasparenza, in particolare considerando che gli utenti sono stati automaticamente inclusi in questo programma senza un consenso esplicito.

 l'intelligenza artificiale sta trasformando il settore del recruiting

Business 14 Giu

LinkedIn potenzia la ricerca del lavoro con l'AI ma solo per utenti Premium

Android 14 Giu

Per gli utenti che desiderano revocare il permesso, LinkedIn ha creato un processo in due fasi. Innanzitutto, è necessario accedere alle impostazioni dell'account, nella scheda "Privacy dei dati", e disattivare l'opzione "Dati per il miglioramento dell'IA generativa". Tuttavia, questo passaggio non è sufficiente per una protezione completa. Gli utenti devono anche compilare un modulo separato, il "LinkedIn Data Processing Objection Form", per escludere i propri dati dall'addestramento di altri strumenti di apprendimento automatico utilizzati per la personalizzazione e la moderazione.

È importante notare che, secondo LinkedIn, la revoca del consenso impedirà l'uso dei dati personali per l'addestramento di modelli futuri, ma non influirà sull'addestramento già avvenuto. Inoltre, l'azienda afferma di utilizzare "tecnologie per migliorare la privacy per rimuovere o eliminare i dati personali" dai suoi set di addestramento e di non addestrare i suoi modelli sui dati di coloro che vivono nell'UE, nello SEE o in Svizzera.

Questa rivelazione arriva in un momento particolarmente delicato per le big tech e il loro uso dei dati degli utenti per l'IA. Solo pochi giorni fa, Meta ha confermato di voler riprendere ad addestrare i suoi modelli AI con i post pubblici degli utenti delle sue piattaforme, come per esempio Facebook e Instagram. La decisione, però, riguarda solamente il Regno Unito.


Read Entire Article