ANDIP - E' stato presentato il nuovo sito dell'associazione

ANDIP - A partire da Marzo 2018 l'associazione riprende i suoi corsi formativi

ANDIP - Nel menù consulenze e servizi tutto quello che l'associazione propone ai propri iscritti e al mercato in tema di privacy

ANDIP - Nella nuova sezione Pillole di privacy troverete brevi concetti spiegati sui temi della Privacy

ANDIP - Grazie al contributo del suo comitato scientifico l'associazione si apre in toto al mondo digitale, parleremo anche di robotica

A far data dal 25 Maggio 2018 entra in vigore il regolamento europeo

ANDIP - è stata riattivata la newsLetter

CYBERSECURITY SUMMIT 2018 Where do we stand with the Cyber War? Instructions to win it 21 March 2018 - Centro Congressi Roma Eventi Fontana di Trevi - Roma

1 | 2

Agenda Eventi

News letter

Iscriviti alla newsletter
Joomla Extensions powered by Joobi

Articoli e news

Geolocalizzazione: quando può essere un utile strumento...

In taluni casi la localizzazione geografica può essere utile a rafforzare le condizioni di sicurezza dei dipendenti permettendo l'invio mirato di soccorsi in caso di difficoltà. Si possono, ad esempio, utilizzare i dati di localizzazione geografica, rilevati da una app attiva sugli smartphone in dotazione ai lavoratori, purché vengano adottate adeguate cautele a protezione della loro vita privata. Occorre, infatti, adottare...
07. 02. 2018
Read more

Il mercato invisibile dei nostri dati

La nostra identità digitale alimenta un mercato invisibile, di cui  l’opinione pubblica non ne è sempre consapevole. Quali ricadute la raccolta indiscriminata di dati può avere su ognuno di noi? La nostra identità digitale è di grande interesse per un mercato apparentemente invisibile: quello che gestisce ed utilizza «i big data». Innanzitutto, cosa sono i «big data» e perché oggi sono diventati...
23. 01. 2018
Read more

E-waste

Partendo dalla segreteria telefonica attraverso il fax e l’agendina elettronica fino ad arrivare al personal computer forse in pochi ci hanno pensato ma nella “spazzatura” arrivano una mole di dati privati e sensibili da far inorridire qualsiasi politica di Privacy. E’ indubbio che la tecnologia ha arricchito le possibilità di tutti noi di essere sempre in contatto e soprattutto di essere...
23. 01. 2018
Read more

I nostri referenti in Italia

contentmap_module

Pillole di Privacy

Si possono utilizzare recapiti telefonici contenuti...

I dati personali di un professionista - anche quando sono estratti da un registro, elenco o albo consultabile da chiunque - possono essere utilizzati dal promotore solo se ha già acquisito lo specifico consenso dell’interessato iscritto all’albo o se presenta offerte strettamente attinenti all’attività svolta dal professionista contattato. Tutte le società, prima di poter utilizzare a fini di marketing i numeri...
08. 02. 2018
Read more

Il supermercato può rifiutarsi di concedere la tessera...

No, la tessera fedeltà è un’opportunità per l’azienda di fidelizzazione del cliente, ma non può trasformarsi in una forma occulta di raccolta dati per il marketing e la profilazione. Il consenso per tali attività non può essere imposto, ma va raccolto in modo specifico.
08. 02. 2018
Read more

A chi ci si deve rivolgere per sapere come ha avuto i dati...

È sufficiente farne richiesta al titolare del trattamento dei dati personali indicato nell’informativa privacy della società. Tale informazione può anche essere chiesta direttamente, magari all’operatore che ci sta telefonando.  
08. 02. 2018
Read more

Posta elettronica aziendale: come rispettare la Privacy?

I contenuti e le informazioni della posta elettronica sono tutelati costituzionalmente da garanzie di segretezza, tuttavia incidono anche sull’organizzazione del lavoro. Ecco perché è opportuno che il datore di lavoro renda disponibili indirizzi di posta elettronica condivisi tra più lavoratori (ad es. ufficioreclami@società.com) affiancandoli a quelli individuali (ad es. rossi@società.com) e valuti la possibilità di attribuire al lavoratore un diverso indirizzo...
08. 02. 2018
Read more

In realtà non si tratta di un robot, almeno di come lo intendiamo tradizionalmente in  forma umanoide, ma di un’applicazione di intelligenza artificiale denominata chatbot che genera in automatico, qualora sussistano le condizioni, una lettera di contestazione nei confronti della specifica contravvenzione, che l'utente deve solo stampare e firmare.

Per essere precisi per chatbot (dal termine più generale bot, diminutivo di robot) si intende un software basato sull’Intelligenza Artificiale, in grado di simulare una conversazione intelligente con l’utente su una chat. Di fatto offre un servizio funzionale e di supporto attraverso le principali piattaforme di messaggistica come Slack, Telegram, Facebook Messenger. Può essere utilizzato in diversi settori: customer care, diffusione di notizie, offerte e promozioni, e-commerce, attivazione di servizi. Il software si contraddistingue per essere autonomo e sempre attivo per offrire agli utenti aiuto e risposte, ma nello stesso tempo tracciarne interessi, preferenze, età e gusti ai fini marketing e pubblicità comportamentale.

Si rientra, quindi, nell’ambito dei c.d. sistemi esperti (già descritti nell’articolo http://www.altalex.com/documents/news/2017/06/15/avvocato-robot-o-giudice-robot) che si distinguono dai sistemi informatici tradizionali poiché in questi ultimi:

  1. La conoscenza non è mai rappresentata esplicitamente e non è mai separata dalle procedure che la usano e che ne disciplinano l’elaborazione;
  2. la conoscenza è applicata in modo rigidamente predeterminato;
  3. non è possibile aggiungere nuova conoscenza senza modificare le procedure;
  4. il sistema non è in grado di esporre la conoscenza sulla quale si basa né di spiegare perché, sulla base della stessa, sia giunto a determinati risultati.

Invece, nei sistemi basati sulla conoscenza:

  1. La conoscenza è contenuta in una determinata base, dove è rappresentata in un linguaggio ad alto livello, cioè in una forma relativamente vicina al linguaggio usato nella comunicazione umana. E’ possibile adottare una rappresentazione dichiarativa del compito affidato al sistema informatico, lasciando al sistema l’individuazione della procedura da seguire per svolgere quel compito;
  2. la conoscenza è usata da un motore inferenziale, ovvero un meccanismo in grado di interpretare il contenuto della base di conoscenza ed effettuare deduzioni logiche in modo da risolvere il problema posto al sistema;
  3. la base di conoscenza può essere arricchita di nuove informazioni senza intervenire sul motore inferenziale;
  4. il sistema è in grado di esporre in forma comprensibile le premesse e le inferenze che hanno condotto ad un determinato risultato, cioè di giustificare le conclusioni cui giunge.

I sistemi basati sulla conoscenza sono spesso completati da interfacce che agevolano l’interrogazione e la preparazione della base della conoscenza.

Gli obiettivi dell’intelligenza artificiale sono essenzialmente due:

- approfondire e comprendere i principi che rendono possibile l’intelligenza (il computer viene usato per simulare le teorie sull’intelligenza);

- progettare computer o software dotati di capacità simili a quelle umane senza, però, tentare di imitare esattamente i processi informativi degli esseri umani.

I due approcci sono, naturalmente, correlati in quanto il risultato delle ricerche su come la gente risolve i problemi può spesso dare notevoli contributi per le tecniche di problem-solving attraverso l’uso dei computer.

Si può, quindi, tentare di definire l’intelligenza artificiale come quella scienza tendente a sviluppare modelli computazionali di comportamento intelligente, in modo che gli elaboratori possano eseguire compiti che richiederebbero intelligenza da parte dell’uomo.

Questi compiti possono essere suddivisi in:

- compiti del senso comune, che possono essere svolti da qualsiasi persona adulta normale, anche priva di una formazione specifica (come parlare la propria lingua madre, riconoscere oggetti e forme, comprendere la trama di racconti, ecc.);

- compiti da esperti, (come nel caso del chatbot) che normalmente presuppongono conoscenze e abilità specifiche (come diagnosticare malattie, progettare sistemi informatici, effettuare analisi chimiche, ecc.).

L’intelligenza artificiale, quindi, comprende, da un lato, la c.d. scienza cognitiva, che studia l’intelligenza al fine di rappresentarla in modelli che possano essere trasferiti in applicazioni informatiche, d’altro lato, l’intelligenza artificiale in senso stretto, che si occupa delle tecnologie per tali applicazioni. Quest’ultima, a sua volta, è stata divisa in intelligenza artificiale forte, intesa a duplicare la mente negli elaboratori, cioè a creare computer in grado di comprendere e di possedere stati cognitivi, ed in intelligenza artificiale debole intesa a realizzare sistemi informatici capaci di prestazioni normalmente attribuite all’intelligenza umana, pur senza assumere alcuna analogia tra le menti e i sistemi informatici.

Questa ripartizione dell’intelligenza artificiale è sicuramente la logica conseguenza della duplice concezione dell’intelligenza: quella pulita che assume la riducibilità di tutte le manifestazioni dell’intelligenza a pochi principi, esprimibili con eleganza in formalismi logici o matematici e quella sporca, secondo la quale, invece, l’intelligenza è una raccolta di molti metodi ad hoc, ciascuno adeguato ad un compito specifico.

Il dibattito tra la concezione sporca e la concezione pulita dell’intelligenza è connesso alla controversia tra i modelli procedurali ed i modelli dichiarativi della conoscenza: i primi assumono che la conoscenza sia costituita da un insieme di procedure intese a raggiungere determinati scopi nell’interazione con l’ambiente; i secondi presuppongono, invece, che la conoscenza consista di asserzioni che rappresentano il contesto dell’azione intelligente.

Ultimamente però i sistemi esperti sono stati affiancati nell’ambito dell’intelligenza artificiale applicata al diritto dalle c.d. reti neurali (intelligenza artificiale forte) che differiscono in modo radicale e per diversi aspetti dai tradizionali modelli di intelligenza artificiale. Le principali differenze derivano dal presupposto che le reti apprendono, non conoscono già le regole ma si modellano, attraverso un algoritmo di apprendimento, in modo tale da comportarsi come se conoscessero le regole, alla fine dell’apprendimento. Quale sarà il risultato finale del procedimento d’apprendimento è imprevedibile per il programmatore stesso: il programmatore non può prevedere l’evoluzione della rete. Ma una volta terminato l’apprendimento la rete diventa stabile e la sua configurazione non cambia più.