
07 Giugno 2021
31 Gennaio 2021 58
Intelligenza Artificiale. Qualsiasi cosa si nasconda dietro questo termine spesso (ab)usato in campo tecnologico (e non solo), una cosa è certa: per funzionare, gli algoritmi e i sistemi che lavorano ispirandosi alle dinamiche di apprendimento e di elaborazione dell'intelligenza umana devono "nutrirsi" di dati, tanti dati. Già, ma da dove arriva tutta questa mole di informazioni, come viene gestita e soprattutto che tipo di impatto avrà sulla collettività?
Di questi e altri temi si è discusso durante l'incontro organizzato dalla cattedra di informatica giuridica dell'Università di Milano-Bicocca in collaborazione con ReD Open in occasione della Giornata europea della protezione dei dati personali. Una ricorrenza che ricade il 28 gennaio di ogni anno e coincide con l'anniversario - ieri il quarantesimo - di apertura alla firma della Convenzione 108 del Consiglio d'Europa per la protezione al trattamento automatizzato dei dati personali.
Durante l'incontro, il tema della tutela della privacy è stato analizzato in base alle sue declinazioni nelle più disparate categorie merceologiche: dalla sanità all'istruzione, passando per la biometria, la finanza, il marketing, l'ambiente, l'informazione e molti altri. Ma è sull'Intelligenza Artificiale che vogliamo soffermarci.
La premessa è d'obbligo: quella dell'intelligenza artificiale è una storia appena cominciata e che, anche per questo, ha confini operativi e normativi ancora piuttosto lassi. Per questo motivo gli interventi regolatori e legislativi si sono spesso concentrati sulla rimozione dei dati che violano la privacy dei soggetti coinvolti ma senza affrontare il problema in maniera organica e strutturata.
L'UE, tuttavia, ha comunque già tracciato le linee guida per provare a mettere ordine in questo quadro in costante evoluzione. Nel pacchetto di documenti approvato dall'Unione a febbraio dello scorso anno si fa esplicito riferimento a un impatto delle nuove tecnologie “ad alto rischio” per i valori dei cittadini, diritti fondamentali compresi.
In linea di massima si potrebbe dire che l’obiettivo dell'Europa sia quello di sfruttare tutte le potenzialità applicative dell'AI, comprese le discipline di machine learning e deep learning, minimizzandone al contempo i rischi. A questo scopo l'Europa sta lavorando su più binari paralleli: da un lato l’applicazione del framework esistente come regole di carattere generale e specifiche in alcuni ambiti, dall'altro prevedendo nuove norme integrative per la disciplina di alcune specifiche applicazioni di AI ad alto rischio. Nel mezzo tutta una serie di casi "indefiniti" che spesso vengono disciplinati attraverso la cosiddetta certificazione volontaria.
Va anche detto che le metodologie al momento note per garantire la privacy dei soggetti coinvolti come la privacy differenziale, una tecnica di anonimizzazione delle informazioni personali, possono essere applicate affinché i dati siano tutelati ma confliggono spesso con l’efficacia di tali sistemi. La svolta - hanno spiegato gli esperti intervenuti al Convegno dell'Università Bicocca - sarebbe conciliare il rispetto della privacy dei soggetti coinvolti con la funzionalità e la validità degli strumenti dalle elevate potenzialità.
I sistemi di AI pongono però ulteriori problematiche. Come quelle relative al cosiddetto model inversion, la tecnica che sulla carta consentirebbe di effettuare cyber-attacchi ricostruendo i dati di allenamento a partire dai parametri del modello.
Tali attacchi stanno suscitando crescenti preoccupazione a livello di privacy, visto il crescente numero di archivi di modelli online."Gli aggressori potrebbero ricostruire le immagini dei volti che un sistema FRT (Facial Recognition Technology) è stato addestrato a riconoscere", si legge in un documento pubblicato dall'ICO, il garante britannico per la protezione dei dati personali. "I sistemi FRT sono spesso progettati per consentire a terzi di interrogare il modello. Quando al modello viene data l'immagine di una persona di cui riconosce il volto, il modello restituisce la sua migliore ipotesi sul nome della persona e il tasso di confidenza associato".
Sul riconoscimento facciale, va detto, esistono le linee guida varate dal Consiglio d'Europa:
L'uso di tecnologie per il riconoscimento facciale per identificare le emozioni degli individui deve essere vietato perché pone gravi rischi, tra gli altri, nell’ambito del lavoro, dell’educazione, e anche nel sottoscrivere una assicurazione.
Il Consiglio ha specificato che è necessario avviare un dibattito pubblico sull'utilizzo del riconoscimento facciale nei luoghi pubblici e nelle scuole. L'Europa ha fatto chiaramente capire di essere contraria all'utilizzo di questa tecnologia nei centri commerciali, con finalità di marketing e nell'ambito della sicurezza privata. Anche le Forze dell'Ordine dovrebbero farne un uso morigerato per evitare di compromettere la sicurezza pubblica.
Nel migliore dei casi il riconoscimento facciale può essere conveniente, aiutandoci a navigare tra gli ostacoli della vita quotidiana, ma nel peggiore dei casi minaccia i nostri diritti fondamentali, dando alle autorità il potere di monitorare e controllare importanti aspetti della nostra vita spesso senza che noi ne siamo a conoscenza. Queste linee guida servono a bloccare questa possibilità, assicurando la protezione della dignità umana, dei diritti e la sicurezza dei dati personali degli individui. - Marija Pejcinovic Buric, segretario generale del Consiglio d'Europa.
Al di là di queste problematiche molto dirette, il mondo delle tecnologie intelligenti presta il fianco anche a tutta una serie di interrogativi legati alle finalità di sfruttamento dei dati nella loro globalità, soprattutto in un orizzonte a medio e lungo termine.
L'approccio utilizzato dalle società che direttamente o indirettamente fanno profitto si è spesso concentrato sull'uso dei dati come strumento essenziale per migliorare la qualità del servizio, con un approccio che ricorda molto da vicino quello delle grandi multinazionali del software quando si tratta di condividere dati di diagnostica. Perché è evidente: dare il consenso al trattamento di un dato per una finalità legata alla risoluzione dei problemi è nel 99,9% dei casi più accettabile di un eventuale motivazione legata a finalità commerciali.
Il punto più critico riguarda però gli aspetti etici e l'orizzonte che potrebbe andare a delinearsi in alcuni ambiti della nostra vita, e in particolare in quello lavorativo. Ci si chiede: gli utenti sono davvero consapevoli di tutte le implicazioni che il consenso al trattamento dei propri dati personali per finalità di AI potrebbe avere nello sviluppo di attività in grado di rimpiazzare il lavoro umano?
Nella Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione concernenti il quadro relativo agli aspetti etici dell'intelligenza artificiale, della robotica e delle tecnologie correlate si invitano gli Stati membri a valutare se le perdite di posti di lavoro derivanti dalla diffusione di tali tecnologie dovrebbero portare a politiche pubbliche adeguate quali la riduzione dell'orario di lavoro o l'eventuale riqualificazione del personale. E si sottolinea la necessità di delineare in modo univoco e condiviso le regole che riguardano l'intelligenza artificiale, la robotica e le tecnologie correlate, inclusi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie.
Fatta salva la legislazione settoriale, il Parlamento Europeo ritiene che un quadro normativo efficace e armonizzato basato sul diritto dell'Unione, sulla Carta e sul diritto internazionale in materia di diritti umani, applicabile in particolare alle tecnologie ad alto rischio, sia necessario al fine di stabilire norme uniformi in tutta l'Unione e proteggere efficacemente i valori dell'Unione.
L'Europa dei 27, inoltre, auspica che:
La Commissione integri un solido approccio etico nella prossima proposta legislativa che includa la sicurezza, la responsabilità e i diritti fondamentali, che massimizzi le opportunità e riduca al minimo i rischi legati alle tecnologie di IA; si attende che la proposta legislativa richiesta includa soluzioni politiche per i principali rischi riconosciuti dell'intelligenza artificiale tra cui, tra l'altro, la raccolta e l'uso etici dei Big Data, la questione della trasparenza algoritmica e delle distorsioni degli algoritmi; esorta la Commissione a elaborare criteri e indicatori per classificare le tecnologie dell'AI al fine di promuovere la trasparenza, la spiegabilità e la responsabilità, nonché di incentivare ulteriori precauzioni da parte degli sviluppatori; sottolinea la necessità di investire nell'integrazione di discipline non tecniche negli studi e le ricerche in materia di AI tenendo conto del contesto sociale.
Pare dunque chiaro che il difficile sarà individuare un approccio basato sul rischio e capace di agire trasversalmente su tutti i settori interessati. E farlo seguendo una metodologia basata sulla sicurezza, l'imparzialità e soprattutto la trasparenza. Perché è evidente: senza la fiducia degli utenti, il futuro delle applicazioni basate sull'intelligenza artificiale sarà tutt'altro che roseo.
Commenti
ahia, tipo permaloso Alan
Ma per nulla, ci saranno falsi positivi e probabilmente non saranno pochi, col rischio tra l'altro che causa procedure errate tutto ciò venga trafugato. E'di una pericolosità sconcertante quello che propongono, oltre che da stato di polizia.
Per il resto, non è indispensabile, stiamo parlando di reati sempre esistiti e per quanto gravi, non significano in alcun modo un'instrusione massima nella vita dei cittadini. Ma ci stiamo con la testa?
Se controlli un'auto a caso tra l'altro non vai a vedergli con chi messaggia o che siti visita, la cosa è enormemente diversa.
Non posso: ci siamo presi a male parole tempo fa e non mi risponde più al telefono.
gli antichi bruciavano vive perchè streghe anche tantissime donne o dicevano che la terra è piatta, che sia un sistema chiuso l'universo è ancora da dimostrare ma ci piace vederla così il resto sono solo convenzioni linguistiche: io adotto quella attuale italiana visto che vivo nel 2020 e sono italiano.
Qui dove? in questo articolo nelle parole riportate dalla ue non vi è traccia e nel link delle 30 pagine messo da te (da TE) nella PRIMA pagina c'è scritto proprio che si sta parlando di sicurezza dei terroristi, altri atti illegali e abusi pedoprngrafici, prima pagina, te non leggi nemmeno quello che posti.
Wired e non so leggere l'inglese? Prima riga sta scritto " this document in not endorsed and approved by ue ".
Tu che conosci l'inglese allora traduci pure che significa.
L'articolo di wired è italiano e non inglese.
ma non è vero, dove lo scrivono?
Poi
- agenda digitale
Già il titolo è sbagliato, non è una bozza di risoluzione e sta scritto nella prima pagina del documento di 30 pagine.
-linkiesta: idem hanno preso e copiato il titolo senza sbagliato sul fatto che non sia una bozza risolutiva, poi tral'altro nello stesso articolo si parla di ipotetico rischio della privacy non di violazione della privacy, di ipotetico rischio di sorveglianza non di sorveglianza. Conosci il concetto di innocenza fino a prova contraria?
-infosec: anche qui sbagliato il concetto della bozza risulutiva ancora copiato a caso ma almeno la chiosa finale, la sintesi è corretta "In effetti la Commissione Europea è più cauta sul tema, sostenendo che gli Stati vogliano sì delle soluzioni per accedere in maniera legale alle prove digitali, ma senza andare a indebolire i sistemi di cifratura, nel pieno rispetto della privacy e della normativa in generale."
nel pieno rispetto della privacy e della normativa in generale Appunto.
MI continui a incollare tue elucubrazione mentali, io voglio vedere l'originale . Tu affermi che la ue si contraddica, è possibile vedere le prove di tali affermazioni? Almeno due frasi originali della ue dove questo si veda?
Almeno 2 , non 30 pagine, due frasi, 1 di quelle 30 pagine 1 di questo articolo, della ue non di pincopallo te o topolino (visto che tu affermi che è la ue che si contraddice ).
Poi già sulla tua affermazion
Quindi siccome ti puoi strozzare bevendo da una bottiglietta d'acqua che facciamo non si beve acqua?
Siccome uno ti può investire con una macchina che facciamo vietiamo le macchine ?
Il fatto che ci sia un potenziale rischio non significa che questo avvenga o che non debba essere mitigato nel rispetto dei diritti di tutti anche quello alla sicurezza di minori da pedofili o dei cittadini dai terroristi.
questo è un tuo problema, ancora con 0 prove quindi irrilevante
poi sempre fare il test di Turing
Ora, oggi; se qualcuno paga abbastanza con un trojan e qualche cimice gps, può avere abbastanza dati personali da distruggere la vita di chi vuole, organizzare delazione continua ed organizzata, continue truffe, raggiri, intimidazioni.
Dicasi: gang stalking, sempre più spesso commissionato.
La privacy, la profilazione; sia chiaro che siamo ben oltre a livelli non dissimili da quelli di un romanzo orwelliano in termini di possibilità assolute...per quelle relative si parla solo di quanto paga chi vuole fare del male.
Il grosso problema è che le persone non sanno o non sono in grado di comprendere queste minacce, a livello di profilazione ed indirizzo agli acquisti, si sapranno tutto di tutti; innescando nel 99% dei casi la classica sbagliata reazione: "ma io non ho niente da nascondere, sono un cittadino onesto". Bene quando ci sarà la presa di coscienza sarà tardi, molto probabilmente i primi a capire saranno trattati come poveri pazzi....
Uso gli assistenti vocali da S-Voice e non mi "spaventa" il fatto che siano sempre in attesa: è una cosa ovvia. Quello che mi lascia da pensare è la qualità della capacità di ascolto di alexa (e immagino sia così google home): bisbigliare, dare il comando immediatamente dopo la parola di attivazione, parlare MOLTO velocemente ma cmq ottenere l'azione desiderata.... tutto questo non mi era mai accaduto perché prima gli assistenti vocali dovevi trattarli come bambini scemi per far si che eseguissero il comando. Adesso invece sembra che siano arrivati ad una qualità semi-umana. Da un lato mi fa piacere e mi consola sulla capacità del progresso della tecnologia. Dall'altro.... ripeto.... boh.
In generale meglio un falso positivo che un falso negativo. Immagino comunque che si tratterebbe di sviluppare un sistema di hashing apposito.
In ogni caso sono un gran fan della privacy e uso tutti gli strumenti necessari per non farmi tracciare dalle corporation private. Da parte dello stato, un certo livello di controllo, compatibilmente con la democrazia e la sicurezza, è indispensabile. UN po come al polizia che fa i blocchi stradali controllando auto a caso...
Gli antichi consideravano vivo tutto ciò che si muoveva, quindi erano considerati vivi, dotati di anima, non solo animali e piante ma anche il sole, la luna, il mare, i fiumi. La vita non è solo quella che noi oggi chiamiamo vita biologica, tutto ciò che si muove è vita e l'universo è tutto un giramento di palle, piccole e grandi, anche i morti sono in continua trasformazione, le sostanze si riciclano.
L'hashing non è compatibile con la privacy mai, se hai un minimo studiato l'argomento sai che ci sono (non pochi) falsi positivi, ergo anche se non c'entri nulla verrà visto quello che fai.
L'hacking in locale lo dicono loro che è praticamente infattibile.
Ma poi mi spieghi due cose:
1) lo dico sinceramente, per quale motivo tutta questa voglia di regalare completamente ogni aspetto della vostra privacy allo stato
2) secondo te un narcotrafficante una volta che sa del sistema di hashing su whatsapp, cosa fa? Secondo te come procede?
Io non credo che tu sia esattamente einstein, scusa se te lo dico.
Qui non si sta parlando di sicurezza dei terroristi, si sta dicendo di (praticamente) spiare potenzialmente TUTTO quello che ognuno di noi scrive, mettendo poi a rischio quei dati perchè se altri li possono leggere, chi ti dice che quegli "altri" non possano essere attaccati?
Ogni proposta scritta nel documento è devastante circa privacy e sicurezza (e infatti lo scrivono pure loro).
Questo solo per chi leggerà le boiate che hai scritto. Il classico tipo che usa 8000 paroloni e fa una super*zzola infinita senza dire nulla, avrai letto 2 righe su wired perchè neanche sai l'inglese e non vuoi ammettere di aver torto marcio (perchè tutte le riviste di settore l'hanno visto come un attacco alla privacy, non solo io):
https://www.agendadigitale.eu/sicurezza/privacy/la-ue-e-il-ban-della-crittografia-contro-il-terrorismo-precedenti-rischi-possibili-soluzioni/
https://www.linkiesta.it/2020/11/crittografia-privacy-gdpr-europa/
https://www.infosec.news/2020/11/17/news/videosorveglianza-intercettazione/consiglio-ue-tra-sistemi-di-cifratura-end-to-end-e-attivita-di-prevenzione-del-crimine/
https://formiche.net/2020/11/crittografia-europa-sicurezza/
Tu entri nelle discussioni, dici le tue 4 cavolate per far perdere tempo e pretendi pure che siano prese per qualcosa di interessante, per questo ti avevo già bloccato.
Ci tenevo proprio a dirtelo perchè quello come te proprio dovrebbero evitare di commentare.
Tu hai letto le 30 pagine quanto io sono miliardario.
ancora? tu hai affermato e tu devi dimostrare, non sono io che devo capire.
Ti ho chiesto le parole originali dellla ue non le interpetazioni di terzi, uno è responsabile per quello che scrive non per quello che scrivono terzi.
Inoltre questo articolo di wired è pieno di inesattezze, errori e conclusioni false come la chiosa riassuntiva finale
Di chi che diritti stanno parlando di quelli che non esistono e quelli di fantasia? Privacy non significa anonimato, privacy non significa che decide il singolo cosa si può sapere e cosa no, la privacy è regolamentata da costituzione degli stati, non esistono diritti fuori dalla costituzione, se una legge viola i diritti deve essere dimostrato, deve essere dimostrata l'incostituzionalità, fino a prova contraria non viola i diritti di nessuno quindi non ci si infischia di nulla.
Il resto dell'articolo è su questo tema: si usano concetti e parole spesso attribuendoli significati soggettivi di interpretazione sbagliati supponendo che ciò sia vero o abbia valore perchè è la propria opinione personale, un pressappochismo e una sciatteria ontologica che mi fa pensare di cosa tu abbia capito da 30 pagine in cui ogni parola ha un significato ben specifico e non interpretabile o soggettivo se mi dai come esempio sta spazzatura digitale.
Poi ancora sempre da wired
Sicurezza di chi? Dei terroristi e dei pedofili?
Attacco diretto dove? La discussione della commissione ue deve ancora iniziare.
Le prime righe del documento originale a caratteri cubitali dice " questo documento non è stato ne approvato ne usato dalla commissione europea"
L'inizio, proprio le basi del diritto e della comprensione e poi si parla di diritti oltre a giudicare.
mizzica ancora....io le 30 pagine le ho lette, se affermi devi provare altrimenti sono balle.
Non ti ho chiesto il tuo sunto o quello che hai interpretato o capito da questo articolo e le 30 pagine che hai allegato.
Ti ho chiesto visto che hai affermato che quanto scritto in questo articolo dalla ue e quanto da te allegato della ue siano in contraddizione un estratto originale (non un tuo sunto ed elaborazione o altro tuo) dell?appunto ue dove si contraddice.
Attendo
e come no, dipende quale definizione ci dai a vivo...in quella riconosciuta tutto nell'universo non è vivo altrimenti anche i morti sarebbero vivi e questo è in contraddizione.
Che siano tutti uno strumento invece ok
senza andare a vedere gli algoritmi...l'intuito esiste anche sul dizionario e negli esseri umani oltre che in altri animali
Ma AI vuol dire tutto e niente xD
Attualmente, è ""semplicemente"" uno o più processi automatizzati... Il responsabile è sempre chi la crea, di per sé è neutro... NON è senziente... Le responsabilità le si prendono solo quando si è in grado di intendere e di volere, anche per un essere umano(in questo caso la responsabilità è dei tutori...).
Ad esempio la crittografia e2e per i contenuti con gli hash degli invii inviati in chiaro. Dagli hash non risali al contenuto ma puoi verificare se è materiale sospetto.
Anche khadhing in locale sui dispositivi non è una brutta idea ed è compatibile con la privacy
Sono d'accordo, ma in realtà Alexa è già stata usata come "testimone" in processi penali. Quindi è da capire quale sia il vero limite delle 4 parole...
non lo so di preciso , nell articolo che avevo letto non hanno specificato l algoritmo , probabilmente trattasi di una serie di algoritmi complessi sicuramente non roba banale
Fornisci una prova di ciò che dici, perché quella della AI è evidente al contrario...
Che è Matrix? Ma anche se fosse, decidevi tu cosa fare non la matrice volendo, coni limiti ovviamente imposti dalla matrice stessa, ma in quei limiti potevi scegliere tu cosa fare, persino il barbone volendo...
Tutto nell'universo è vivo e tutto è uno strumento.
Una domestica infedele merita la... rottamazione!
La privacy è destinata a scomparire.
Ma di che onere parli, ho lasciato il link, è lungo 30 pagine, se vuoi te lo vai a leggere. Ti ho lasciato anche un articolo che riepiloga, ci vogliono 5 minuti per leggerlo.
Anzi, se uno vuole commentare dovrebbe sapere di cosa si parla, cosa che effettivamente tu non sapevi.
Detto questo, è molto semplice la questione: da una parte l'UE si fa promotrice della privacy per quanto riguarda alcuni aspetti critici dell'utilizzo dell'AI, come il riconoscimento faccila, ecc., dall'altra si parla allegramente di mettere dei filtri ogni volta che tu mandi un messaggio su qualche chat/social o addirittura di mettere un terzo che possa vedere in chiaro quello che tu fai, e sono cose immensamente più intrusive della privacy di quanto non possa esserlo un riconoscimento facciale in mano alle forze dell'ordine.
e ti ho scritto! tu hai scritto che non ho capito nulla allora io ti ho chiesto in cosa e tu zero ti rifiuti di dare spiegazioni quindi la tua affermazione è irrilevante. L'onere della prova è di chi afferma.
Allora ti faccio una seconda domanda: mi posteresti una sola prova (anche breve di una riga) dell'evidenza della contradizione di quanto affermato dalla ue in questo articolo con quanto detto nel link da te postato?
Due frasi loro originali, non elaborazioni tue.
Ti ho lasciato il link, lo puoi capire da solo.
Oppure:
https://www.wired.it/internet/regole/2020/11/09/crittografia-consiglio-europeo/
spiegamelo tu allora visto che affermi che non ho capito.
insieme a promuovere tante intenzioni si dovrebbe iniziare a promuovere l'informazione e l'istruzione di queste nozioni come eticità, trasparenza, imparzialità, sicurezza, diritti, privacy, etc etc....fino a quando l'utente confonderà o non saprà il significato di un concetto e lo interpreterà a modo suo credendo e supponendo che gli stiano violando diritti inesistenti e fantasiosi è inutile parlare di fiducia, la fiducia si interrompe quando il singolo crede di aver subito un torto e il suo interesse personale è in contrasto: la fiducia sono le belle intenzioni quandi ci si saluta prima di iniziare a parlare quando si deve trattare.
Prima della fiducia ci vuole istruzione e certezza di perseguibilità.
Evidentemente non hai capito di che diavolo si sta parlando
dove sarebbe la contraddizione? non vi è rischio della privacy nell'esercizio di pubblico ufficio, quello si chiama rispetto delle leggi.
Non mi sembra che se un ladro commette un furto quando viene fermato possa dire "no mi rifiuto di farlo o che voi sappiate chi sono perchè voglio che ci tengo alla mia privacy "
Stica...non conosce il suo diritto alla privacy ne sa come si esplica e si esercita.
guarda che privacy non significa non risucchiare dati, privacy non significa segretezza o anonimato
Se vuoi un AI è ovvio che dovrai levare la privacy. Ormai chiedere a un AI che vuoi usare di limitare il risucchio di dati è come chiedere a una badante di bendarsi e portare cuffie per non sentire mentre fa il suo lavoro, chiaramente sarà mediocre...
L'unica cosa che non mi piace è quando l'ai sà troppo.
Quali? L'ho letto da cima a fondo, sono tutte super-intrusive, prone a falsi positivi (quindi vedono quello che fai indipendentemente che tu sia pericoloso o no) e ai terroristi, trafficanti ecc basterebbe usare altre piattaforme. Con i soldi che fanno col la c*caina se lo possono costruire direttamente da soli il loro whatsapp.
Comunque scusa se te lo dico, ma non credevo che queste gravissime intrusioni nella vita privata e nella sicurezza dei cittadini fossero così ben accolte, in Europa poi. Veramente da far venire i brividi lungo la schiena.
Una specie di feticismo per lo stato controllore e iper-burocratico.
Quel documento si riferisce alla sicurezza e al rispetto della legge. I sistemi E2E che tanto piacciono in europa per l'assoluta privacy sono gli stessi che vengono usati da terroristi, pedofili, trafficanti e via dicendo.
Cercare una soluzione per garantire la privacy dei cittadini ma permettere il contrasto a crimini efferati mi sembra sacrosanto. Alcune di quelle indicate li poi, garantirebbero entrambe le parti.
Il chip offline riconosce solo 4 parole impostabili (Alexa, computer, Amazon e Echo). Solo quando sente quelle si connette a internet e trasmette.
Poi che amazon possa da remoto attivare e sentire mi sembra scontato. Parliamo di americani con la mania del controllo. Se tiu fai questi problemi, non sei fatto per gli assistenti vocali...
Concordo, omai è una rarità trovarli qui. Ci vorrebbero più contenuti come questo, che ha pure il giusto approccio.
Non l'ha detto nessuno ma è un articolo molto bello e interessante. Bravi!
lol l'auto è una ai
l'intuito non è altro che intelligenza stocastica
non è vivo anche se lo sembra, è uno strumento
no, l'auto non è una AI.
Ma nel momento in cui sei promosso ad AI ti prendi la responsabilità di quello che fai, esattamente come succede con l'uomo ;)
È come dire che un auto è colpevole perché andava a 150km/h... Il problema è che va a quella velocità perché chi sta dentro preme l'acceleratore :D
L'AI non necessita di dati a prescindere.
E' soprattutto in tempi recenti che si fa uso dell'AI basata sui dati per ovvie ragioni (ci sono i dati e c'è potenza di calcolo).
l'intuito è una branca dell'AI, non è una disciplina a parte.
la matematica centra sempre ma si fa distinzione tra intelligenza e intuito , la classica IA si basa su una mole enorme di dati per funzionare bene mentre l INTUITO si basa su algoritmi ben piu complicati ma che richiedono una frazione dei dati rispetto alla IA classica
obietterei che noi siamo solo convinti di essere senzienti: non c'è nessuna prova fisica a riguardo ;)