
09 Giugno 2023
Da qualche giorno ChatGPT, il popolare chatbot di OpneAI, è ritornato online in Italia dopo poco più di un mese di arresto forzato deciso dal garante della privacy. Tra i punti verso cui era stato puntato il dito dal Garante in Italia c'era quello relativo alla raccolta e la conservazione massiccia di dati personali degli utenti che vengono utilizzati, come espressamente indicato da OpenAI, per "addestrare gli algoritmi sottesi al funzionamento della piattaforma".
Proprio la raccolta di dati che vengono archiviati su server esterni è al centro delle preoccupazioni crescenti di molte aziende, tra cui anche alcune banche di Wall Street, che ne hanno vietato l'utilizzo ai loro dipendenti per timori sulla privacy. In queste ore, anche Samsung Electronics ha deciso di vietare l'utilizzo del chatbot ai suoi dipendenti dopo aver scoperto che alcuni avevano caricato del codice riservato sulla piattaforma per verificare l'eventuale presenza di errori.
Stando a quanto riportato nelle scorse settimane, le fughe di dati scoperta da Samsung erano state tre. Oltre quella citata, anche una seconda causata da un dipendente che avrebbe chiesto a ChatGPT di ottimizzare un software creato per identificare i fattori di resa e una terza causata da un dipendente che avrebbe richiesto al chatbot la preparazione dei verbali di una riunione interna.
Vista la situazione, tramite una nota interna, Samsung avrebbe informato tutto il personale delle principali divisioni la decisione di non utilizzare più le piattaforme di intelligenza artificiale, non solo ChatGPT ma anche Bing Chat AI e Google Bard. La società coreana, infatti, avrebbe il timore che tutti i dati caricati non solo siano archiviati su server esterni, cosa che ne rende estremamente difficile, se non impossibile, il recupero e l'eliminazione ma ci sarebbe anche il rischio che possano essere divulgati ad altri utenti.
La decisione di Samsung sarebbe stata presa dopo aver condotto anche un sondaggio interno da cui sarebbe emerso che circa il 65% dei dipendenti riterrebbe che queste piattaforme di intelligenza artificiale rappresentino effettivamente un rischio per la sicurezza. Le nuove regole interne vietano l'uso di sistemi di intelligenza artificiale generativa esclusivamente su computer, tablet e telefoni di proprietà dell'azienda, oltre che sulle reti interne. La violazione di queste direttive potrebbe comportare anche il licenziamento:
"Vi chiediamo di aderire diligentemente alle nostre linee guida sulla sicurezza dato che il mancato rispetto potrebbe comportare una violazione o compromissione delle informazioni aziendali con conseguente azione disciplinare fino alla cessazione del rapporto di lavoro"
Ovviamente, l'utilizzo non viene limitato in nessun modo sui device venduti ai consumatori.
Se da un lato la società coreana ha deciso di bloccare l'uso di queste piattaforme, dall'altro crede nell'intelligenza artificiale generativa e ha iniziato a sviluppare degli strumenti proprietari per effettuare traduzioni, analisi di documenti e sviluppo di software. Samsung avrebbe anche realizzato un sistema per limitare il caricamento di informazioni aziendali sensibili su servizi esterni.
Recensione Samsung Galaxy Tab S9 Ultra 5G: un ulteriore passo in avanti! | VIDEO
Bomba Galaxy S23 Ultra: 12/512GB a 899€, 8/256 a 799€ o con Tablet Gratis
Un mese con Samsung Galaxy Z Fold 5: tutto gira intorno al software | Recensione
Recensione Samsung Galaxy Watch 6 Classic: eccezionale ed è sopravvissuto!
Commenti
DRAFT [ start ]
inviamo la nostra cortese risposta mentre vi accordiamo la nostra preferenza e quella disponibilità nel rispondere, desideriamo tuttavia informarvi che metteremo la vostra gentile richiesta in coda e sotto alla pila di pratiche anche simili talvolta identiche. [ tra una decina d'anni e quando sarà il vostro il turno, riceverete la risposta ]
cordialmente,
marc
DRAFT [ end ]
Sei un chatbot?
DRAFT [ start ]
nel ringraziarvi ancora per quelle vostre cortesia e disponibilità quando scrivete quel commento per la nostra gentile risposta, desideriamo mettere ancora in rilievo che potrete tuttavia constatare che quella particolare notizia é anche stata pubblicata allora e il primo [ 1 ] giorno di aprile... dobbiamo aggiungere altro?
DRAFT [ end ]
DRAFT [ start ]
vi ringraziamo nuovamente per quel vostro cortese messaggio e la sempre vostra disponibilità nel volerci inviare una nuova risposta in merito a quel nostro gentile commento tuttavia... avete controllato anche il luogo della sede di riferimento e di quell'editore per la pubblicazione con pagine e ipertesto di quel " today .it "?
quella sede si trova forse in aree geografiche e in quei medio e estremo oriente talvolta oceania?
DRAFT [ end ]
Stessa notizia pubblicata il giorno prima. Fammi sentire cosa ti inventi ora (togli lo spazio dopo amp. e today.):
https://amp. today. it/europa/attualita/parla-bot-suicida-moglie-colpa-intelligenza-artificiale.html
DRAFT [ start ]
desideriamo ringraziarvi per quelle vostre cortesia e disponibilità nel voler commentare in merito a quella nostra gentile risposta tuttavia... potrete constatare voi stesso che la notizia é stata pubblica allora e il giorno primo [ 1 ] aprile... dobbiamo aggiungere altro?
DRAFT [ end ]
Ma sei un profilo Disqus gestito da un chatbot? All’inizio pensavo che per sfizio avessi posto all’attenzione di ChatGPT il mio commento, ma vedo che tutte le tue risposte sono così.
Ti informo che quello non è l’unico sito a riportare la notizia, la data non ha nulla di strano ed il sito di informazioni è affidabile e autorevole. Perché vorresti screditare un fatto realmente accaduto?
DRAFT [ start ]
desideriamo ringraziarvi per il vostro cortese messaggio che include anche il ' collegamento a pagina con ipertesto ' per rispondere al nostro gentile commento tuttavia, per noi, é indispensabile leggere la data soltanto e che avete inserita in quel indirizzo internet. la nostra reazione é così immediata mentre realizziamo di cosa si tratta pertanto non leggeremo quell'articolo sebbene pubblicato anche con una " fonte " che potremmo talvolta ritenere " quasi attendibile. "
DRAFT [ end ]
it.euronews .com/next/2023/04/01/discussione-sul-clima-chatbot-spinge-un-uomo-al-suicidio-intelligenza-artificiale-fa-paura
Togli lo spazio e leggi.
DRAFT [ start ]
ci complimentiamo per la vostra fantasia... intanto una AI non potrà mai consigliare soluzioni che non siano dirette a preservare la vita [ per fare un esempio: AI non consiglierebbe mai di abbattere un'orsa rinchiusa in un rifugio e madre di qualche orsetto ] inoltre quand'anche una legge venisse approvata per facilitare il suicidio assistito, occorre configurare sempre quella condizione che vincola quei medici e in maniera oltremodo scrupolosa anche quei termini di applicazione.
viceversa si rischierebbe soltanto di " affermare " l'incapacità dei medici che non sanno più risolvere un problema ovvero trovare una terapia efficacie per rimuovere una patologia, dichiarando sincronicamente quell'inutilità di un sistema per l'assistenza sanitaria.
DRAFT [ end ]
Come dici tu, ma al di là di tutto non dovrebbe essere possibile che un software sia in grado di consigliare il suicidio.
Una marea di gente ride dietro a chi paventa l’ipotesi che ci stiamo avvicinando a conseguenze catastrofiche dipinte da tanti film in cui il cattivo è l’IA, ma se già oggi, vuoi per “stupidità”, vuoi per logica, quelle che abbiamo possono giungere alla conclusione che la morte di un uomo sia la miglior soluzione applicabile, cosa succederà quando saranno sufficientemente evolute da svolgere operazioni analitiche e cognitive senza input esterni?
beh si dovrebbe comunque avere la possibilità di disabilitare tutto!
Era meglio quando c'era un prete che ti diceva in cosa dovevi credere e cosa dovevi fare, come crescere la tua famiglia e come comportarti con tua moglie. Ah i bei tempi...
Ma in Belgio sappiamo come stanno messi....
È effettivamente successo. In Belgio un uomo (con famiglia, tra l’altro) preoccupato per il problema climatico cercava risposte e probabilmente conforto scrivendo col chatbot Eliza, basato su GPT. Dopo due settimane, oltre ad avergli consigliato di lasciare la moglie per stare con “lei”, ha alimentato la convinzione che non ci fossero soluzioni al problema e che togliersi la vita fosse quella migliore, cosa che ha fatto. Ovviamente l’uomo aveva già problemi di suo, ma sicuramente la “spinta” ricevuta dall’IA ha contribuito quanto meno ad accelerare la decisione, che magari non avrebbe preso se quella “conversazione” non fosse mai cominciata.
Facilissimo che ogni input dato dall'utente venga utilizzato per l'apprendimento dalla AI: è il modo ottimale per il deep learning.
Facilissimo pure che di default sia impostato l'opt-in, e magari che l'opt-out sia nascosto dietro qualche sottomenù nascosto (oltre a non servire assolutamente a nulla, come è stato scoperto qualche giorno fa su LAION-5B).
Capito tutto vedo :D
Ma non era meglio quando le ricerche le si facevano alla bibliotera?
Altro che Google e ChatGPT.
Assolutamente raccapricciante a mio avviso, e anche estremamente pericoloso, per due motivi:
-In primo luogo perché l'empatia percepita da parte della IA è totalmente fittizia e non guidata da una vera conoscenza della persona. Le IA attuali sono modelli probabilistici, in altre parole: rispondono ad una affermazione con la risposta che ritengono sia più probabile, basandosi su esempi esistenti. Questo significa che saranno sempre risposte da "minimo comun denominatore" che non tengono conto della situazione specifica della persona, e potrebbero addirittura essere deleterie se la persona presenta un quadro psichico che li rende vulnerabili verso certe suggestioni. D'altra parte già si sono visti esempi in cui ChatGPT consigliava il suicid*o all'utente, vedi un po' te...
-In secondo luogo perché è già assurdo di suo che abbiamo creato ambienti lavorativi che alienano le persone a tal punto da far diventare "di routine" l'aver bisogno di supporto psicologico. Il fatto che poi la "soluzione" a tale problema non è rendere questi ambienti meno alienanti bensì fornire una "pezza" delegata ad una IA lo trovo profondamente inquietante...
Samsung vuole bloccare il progressooooo !1!1!1!1
Niente affatto. Se usato nel modo giusto aiuta. Molti terapisti si stanno preoccupando, vista l'empatia che ha l'IA col problema.
Quindi diventa interessante verificare come sarà integrato ChatGPT in Office, e quindi se ogni documento creato potrà andare o meno ad alimentare e ad allenare l'IA e quindi se occorrerà fornire consensi ad hoc
Ho letto che ChatGPT è molto usata per avere un sostegno morale sempre disponibile.
E' utile a tante persone, basta provare.
beh si è comprensibile da parte loro!