Archivio mensile:gennaio 2017

Telecamere, rischio multe se installate da professionisti improvvisati

“Installazione di telecamere a rischio pesanti sanzioni se non curata da esperti qualificati. TÜV Italia certifica adesso i consulenti della privacy del settore della videosorveglianza. In partenza a Bologna i corsi propedeutici per la certificazione con l’ente bavarese. La segnalazione viene da Federprivacy.” Così oggi Il Sole 24 Ore nella rubrica Condominio, che prosegue:

************ GLI STRUMENTI PER GLI ESPERTI PRIVACY 2017 **********
_ Corso on line Esperto Privacy Regolamento europeo 679/2016
_ Kit software regolamento europeo 679/2016
**************************************************************

Secondo uno studio di Gartner, si legge nel comunicato di Federprivacy, sono circa 464 milioni le telecamere installate nel mondo, e sfioreranno il miliardo entro il 2018, e per questo il nuovo Regolamento Europeo sulla protezione dei dati personali entrato in vigore il 24 maggio 2016 avrà degli impatti notevoli anche nel settore della videosorveglianza.

Evitare le pesanti sanzioni previste dalla nuova normativa in materia di privacy, che potranno arrivare fino a 20 milioni di euro o fino al 4% del fatturato annuo dei trasgressori, dipenderà quindi in buona parte dalle mani a cui imprese pubbliche e private affidano la progettazione e l’installazione dei sistemi di videosorveglianza.

Fonte: Il Sole 24 Ore

Convegno “Big Data e Privacy. La nuova geografia dei poteri”. Intervento di Antonello Soro, Presidente del Garante privacy

I cambiamenti imposti dall’innovazione tecnologica hanno generato un livello senza precedenti di raccolta e di elaborazione di dati, destinato a subire un’ulteriore espansione con le nuove applicazioni dell’Internet delle cose, della robotica, della realtà aumentata.

Dalle parole e dai numeri ai giochi, ai media, alle funzioni complesse dei sistemi industriali, all’ambiente, ai trasporti: tutto quello che riguarda la nostra esistenza ha subito una trasformazione digitale.

************ GLI STRUMENTI PER GLI ESPERTI PRIVACY 2017 **********
_ Corso on line Esperto Privacy Regolamento europeo 679/2016
_ Kit software regolamento europeo 679/2016
**************************************************************

Ora stiamo varcando una nuova frontiera, stiamo entrando nell’era dei sistemi cognitivi.

Una nuova categoria di tecnologie, che utilizza l’elaborazione del linguaggio naturale e dell’apprendimento automatico, è  in grado di amplificare e accelerare il processo di trasformazione digitale, per consentire alle persone e alle macchine di interagire in modo più naturale, estendendo e potenziando le competenze e le capacità cognitive.

Lo sviluppo delle tecnologie rappresenta il presupposto  essenziale perché le imprese possano competere nella dimensione globale dei mercati e  perché possano migliorare le condizioni di vita delle persone in ogni angolo del pianeta.

Ma i progressi incessanti  di questi cambiamenti mettono in discussione molti paradigmi consolidati del diritto e molte consuetudini  della politica.

E sollevano interrogativi ineludibili.

Avvertiamo che lo sviluppo di una florida economia fondata sui  dati, che sfrutta le funzionalità tecnologiche per la loro raccolta continua e massiva, la trasmissione istantanea ed il riutilizzo, ci espone  a nuovi  rischi.

E, poiché i dati rappresentano la  proiezione digitale delle nostre persone, aumenta in modo esponenziale anche la nostra vulnerabilità.

La libertà di ciascuno è insidiata da forme sottili  e pervasive di controllo,  che  noi stessi, più o meno consapevolmente, alimentiamo per l’incontenibile desiderio di continua connessione e condivisione.

Da un lato le imprese tecnologiche hanno dilatato  la raccolta e la disponibilità dei nostri dati, dall’altro le esigenze di sicurezza, di fronte alla minaccia criminale e terroristica, hanno spinto progressivamente i governi ad estendere il controllo delle attività svolte in rete per finalità investigative in modo sempre più massivo.

Il combinarsi di questi processi ha prodotto una straordinaria intrusione nella vita di tutti, una vera e propria sorveglianza, con effetti importanti sui comportamenti individuali e collettivi, sugli stessi caratteri delle nostre democrazie.

Penso che la protezione dei dati debba assumere un ruolo di primo piano per presidiare la dimensione digitale: quella in cui sempre più si dispiega la nostra esistenza  e nella quale ora si svolgono anche le  relazioni ostili tra gli stati e dentro gli stati.

La nuova economia, fatta di tecnologia sempre più interconnessa, favorita dall’espansione dell’Internet in mobilità, alimentata dalla presenza capillare di sensori intelligenti, si caratterizza   per i grandi volumi di dati,  l’infinita eterogeneità delle fonti da cui provengono e la velocità dei sistemi che li analizzano.

Ma governare questi processi non è certamente un compito semplice.

La capacità di estrarre dai dati informazioni che abbiano un significato e siano funzionali, richiede infatti lo sviluppo di sofisticate tecnologie  e di competenze interdisciplinari che operino a stretto contatto.

In questo quadro i progressi nella potenza di calcolo svolgono un ruolo centrale per l’analisi dei Big Data e  per l’acquisizione  della conoscenza.

E in un futuro non troppo lontano l’intelligenza artificiale, grazie ad algoritmi capaci di apprendere e migliorare autonomamente le proprie abilità,  offrirà soluzioni  efficaci per soddisfare le più disparate esigenze.

E arriverà ad occuparsi di problemi che oggi possono sembrare ostacoli insormontabili, a beneficio della collettività.

Potrà fornire un aiuto importante nel campo della medicina, nello studio dei cambiamenti climatici o nel favorire l’accesso a risorse di primaria importanza come l’acqua o il cibo.

Ma, per altro verso, la logica posta alla base dei Big data con il suo insaziabile bisogno di accumulare dati porrà sfide ancora più complesse che solo in parte sarà possibile risolvere attraverso una maggiore regolamentazione degli operatori tecnologici, attualmente attestati su un regime di sostanziale autodichia.

Le riforme del quadro giuridico europeo rappresentano una svolta importante per definire un contesto  uniforme e proiettato sulle esigenze future e, soprattutto, preservare la fiducia degli utenti nello spazio digitale e nelle sue potenzialità.

Fiducia, innovazione e futuro sono fortemente correlati.

L’obbiettivo al quale dovremmo tendere è la garanzia di uno stesso livello di tutela dei diritti online così come offline.

Ma se una buona regolamentazione è essenziale, essa non è da sola sufficiente per affrontare l’impatto di questi processi sulle nostre società.

Penso che sia necessaria una nuova consapevolezza da parte delle opinioni pubbliche.

L’attenzione ai Big data non può riguardare soltanto le sue implicazioni scientifiche e tecniche o gli sconvolgenti effetti delle innovazioni sull’economia.

Ci deve preoccupare anche il potenziale discriminatorio che dal loro utilizzo, anche rispetto a dati non identificativi o aggregati, può nascere per effetto di profilazioni sempre più puntuali ed analitiche: in un gioco che finisce per annullare l’unicità della persona, il suo valore, la sua eccezionalità.

E una grande attenzione dobbiamo rivolgere alle applicazioni dell’intelligenza artificiale che effettuano valutazioni o assumono decisioni supportate soltanto da algoritmi,  con un intervento umano reso via via più marginale, fino ad annullarsi, con  effetti dirompenti sul modo di vivere e articolare esistenze e relazioni, in termini individuali ma anche sociali e politici.

Le Autorità europee di protezione dati avvertono il bisogno di accompagnare questi fenomeni attraverso un più rigoroso approccio etico e di generale responsabilità.

E prima di tutto abbiamo bisogno  di promuovere garanzie di  trasparenza dei processi, anche per la progressiva difficoltà a mantenere un effettivo controllo sui dati: per l’opacità delle modalità di raccolta, dei luoghi di conservazione, dei criteri di selezione e di analisi.

I rapporti  asimmetrici tra chi quei dati fornisce e chi li sfrutta  si risolvono  a favore di questi ultimi ed in particolare di coloro che gestiscono le piattaforme digitali e dispongono degli  standard tecnologici dominanti.

La capacità di elaborare, anche in tempo reale, tramite algoritmi sempre più potenti un’ingente mole di dati consente di estrarre conoscenza e, in misura esponenziale, di effettuare valutazioni predittive sui comportamenti degli individui nonché, più in generale, di assumere decisioni per l’intera collettività.

Chi possiede il profilo dei consumatori indirizza  la produzione commerciale verso specifici modelli di utenza, così da assecondarne i gusti ed insieme orientare selettivamente le scelte individuali.

Dobbiamo chiederci quante delle nostre decisioni siano in realtà fortemente condizionate dai risultati che un qualche algoritmo ha selezionato per noi e ci ha messo davanti agli occhi.

Un libro, un certo viaggio, una clinica cui affidare la salute, un investimento dei risparmi, la scelta di un dipendente da assumere, un giudizio politico, la stessa fiducia nei confronti di una persona appena incontrata, della quale chiediamo subito informazioni cliccando sui motori di ricerca e la cui affidabilità siamo pronti a misurare su quanto appreso in rete.

Dobbiamo riflettere sugli attuali scenari,  interrogarci sugli effetti prodotti da queste trasformazioni: per comprendere le conseguenze sulle nostre vite indotte dalle decisioni automatizzate.

I Big data sono diventati un fattore strategico nella produzione, nella competizione dei mercati, nelle innovazioni di importanti settori pubblici, nella struttura funzionale delle nostre abitazioni, nella normalità della nostra vita quotidiana.

E cresce il numero di soggetti interessati a sfruttarne le potenzialità: attori  pubblici e privati, piccoli e grandi, dalle banche alle compagnie assicuratrici, dagli enti di ricerca agli organismi di sicurezza.

I sistemi di intelligenza artificiale sono già incorporati negli asset strategici di una grande varietà di imprese e di istituzioni e ne influenzano le scelte.

Tuttavia solo chi detiene una grande mole di dati può realizzare le analisi più sofisticate.

Si è così affermata  una nuova gerarchia dei poteri che investe ogni settore e che punta a selezionare ogni contenuto o servizio a noi diretto per rendercelo sempre più affine a quello che gli  algoritmi decifrano dei nostri sentimenti.

E si diffondono tecniche sofisticate di data mining che ci riguardano non solo come consumatori ma  in quanto cittadini. E possibili elettori.

Attraverso il monitoraggio continuo della rete si individuano i temi di maggiore interesse, analizzando puntualmente la geografia dei bisogni e delle relazioni sociali per elaborare contenuti personalizzati anche nell’offerta elettorale.

Una strategia comunicativa fondata sulla profilazione dei cittadini considerati non quali destinatari di un progetto politico, ma di una propaganda orientata su modelli e tipologie di utenti della rete.

Schemi che, assai più delle fake news, travolgono le tradizionali regole del sistema politico.

Ma altrettanto forte è l’interesse dimostrato dalle aziende digitali nel testare le potenzialità dei Big data anche nella biomedicina e nella genomica.

La scienza medica negli ultimi anni ha concentrato la ricerca  verso la conoscenza delle cause genetiche delle malattie.

Progetti finalizzati alla mappatura dell’intero patrimonio genetico umano hanno permesso un notevole sviluppo della medicina predittiva e di precisione.

Algoritmi di apprendimento automatico, opportunamente “addestrati”,  sono capaci di analizzare milioni di dati e cercare correlazioni probabilistiche di rischio, non solo per studiare il propagarsi di un’epidemia e per individuare le nuove terapie personalizzate ma anche per modificare i geni delle persone.

Credo che non si debba sottovalutare – in questo processo – l’esatta natura dei beni giuridici coinvolti, trattandosi di quanto di più delicato ci appartenga.

E’ un tema davvero complesso che rende evidente come sia in gioco non solo l’interesse delle multinazionali digitali al ritorno economico, all’offerta di nuovi farmaci o servizi innovativi, ma anche il potere di  ricercare la chiave per prolungare l’esistenza biologica dell’essere umano.

Il sodalizio tra aziende digitali e ricerca genetica è destinato a crescere vertiginosamente nei prossimi anni in ragione dei massicci investimenti che i giganti di internet effettuano in questo campo.

Abbiamo visto come le informazioni prodotte dalle e sulle persone abbiano permesso – in un tempo estremamente breve – alle grandi imprese tecnologiche di sconvolgere e scardinare la tradizionale catena di valore e di distribuzione della ricchezza su scala planetaria.

Un enorme vantaggio che con i Big data e la loro capacità di estrarre significato da masse di dati anche non strutturati ed il crescente potere di autoapprendimento delle macchine, è destinato a rafforzarsi.

Nell’evoluzione della società digitale gli internet provider sono generalmente percepiti come facilitatori delle nostre vite, premonitori delle nostre esigenze, erogatori di servizi gratuiti: in un processo che dilata in modo incontenibile la nostra dipendenza dalle loro infrastrutture.

Il rischio è quello di consegnare a vantaggio di poche multinazionali digitali, non soltanto la supremazia economica, ma il potere di conoscere i fenomeni che possono governare e influenzare il nostro sapere.

Fanno giornalmente notizia le iniziative e le sperimentazioni anche avveniristiche dei giganti del web, assai  lontane dalle loro originarie vocazioni, ma che permettono loro di assumere un ruolo sempre maggiore in campi (dalla finanza alla genetica, dall’automazione alla realtà aumentata) che hanno un impatto significativo nelle nostre vite sul piano sociale, culturale ed economico.

Lo sviluppo tecnologico è destinato a mutare profondamente i rapporti di potere nella società globale.

Un numero esiguo di aziende possiede un patrimonio di conoscenza gigantesco e dispone di tutti i mezzi per indirizzare la propria influenza verso ciascuno di noi, con la conseguenza che, un numero sempre più grande di persone -tendenzialmente l’umanità intera – potrà subire condizionamenti decisivi.

Esse detengono un potere che si affianca – fin quasi a sopraffarlo – alla tradizionale autorità statuale e che diversamente da questa è meno visibile e prescinde dalla legittimazione e dal circuito della responsabilità.

Le nostre democrazie appaiono più deboli.

Le conseguenze di questa “concorrenza di poteri” sono state evidenti, ad esempio, nel caso che ha contrapposto Apple alle autorità di polizia statunitensi.

In quella circostanza l’azienda di Cupertino ha dimostrato, in nome di una apparente tutela della privacy dei propri clienti,  la forza che il suo patrimonio di dati criptati porta con sé.

Un caso che non è rimasto isolato.

Gli over the top hanno dunque acquisito poteri che assumono sempre di più una caratura sociale e che finiscono per concorrere con il diritto che regola le relazioni tra gli  stati.

Si pensi al progetto di Google, volto a contrastare il rischio di radicalizzazione online, elaborando ed offrendo contenuti dissuasivi da propositi violenti con una contro-narrazione: funzione  “rieducativa” tipicamente espressiva dell’autorità pubblica.

Analogamente al ruolo svolto con l’hate speech e la pedopornografia, dove i monopolisti del web si sono impegnati a rimuoverne i contenuti.

E non meno rilevante è la funzione assunta dai motori di ricerca nel rapporto tra informazione e oblio, nell’ambito delle procedure di de-listing.

Se questa responsabilizzazione dei grandi protagonisti del web è certamente positiva, essa conferma come siano diventati in ogni campo  interlocutori privilegiati e insostituibili.

Dopo il ruolo egemone nel campo dell’informazione e della comunicazione, le stesse aziende hanno ora la chiave per leggere l’enorme patrimonio di conoscenza, sempre più indispensabile per assicurare lo sviluppo di attività sociali e pubbliche come la sanità, l’istruzione e, più in generale, di ogni attività tesa ad offrire servizi alla cittadinanza: tradizionali prestazioni di welfare sino ad oggi affidate prioritariamente al settore pubblico.

Le tecnologie più progredite incidono ulteriormente sulla fisionomia propria degli stati, non solo perché ne hanno scardinato il fattore identitario della territorialità, rispetto appunto ad una realtà immateriale che si sviluppa su reti e su sistemi cloud, ma perché ne indeboliscono la capacità di conoscere i fenomeni per governarli e di intervenire sulle dinamiche  ordinamentali a vantaggio della collettività.

E’ ovvio che questa profonda crisi non è stata determinata esclusivamente dall’innovazione tecnologica ma è indubbio che tali fenomeni abbiano accelerato queste tendenze.

In parallelo con la crisi dei tradizionali corpi intermedi, le piattaforme digitali, come veri e propri oracoli, paradossalmente, della retorica della disintermediazione sono destinate ad acquistare il ruolo di mediatori  della realtà, di interpreti di ciò che accade o di quello che potrà accadere e di assumere decisioni per l’intera collettività.

E nessuno avrà dati in quantità e qualità paragonabili a quelli a loro disposizione mentre in pochi saranno capaci di dare loro un senso utile.

Del resto già oggi è estremamente ridotto il numero delle aziende che hanno il monopolio delle ricerche sul web, che controllano tutto il settore “mobile” , che sono proprietarie dei principali sistemi operativi presenti sul mercato e delle principali piattaforme di distribuzione delle applicazioni che su questi girano e delle infrastrutture Cloud, sulle quali sono costretti ad “appoggiarsi” anche tutti i possibili concorrenti.

Ci sono interrogativi che non possiamo eludere.

Quanto l’esercizio, da parte di soggetti privati, di funzioni così rilevanti sulla vita collettiva, è davvero democratico?

Quale è il criterio di legittimazione di tali funzioni e a chi e con quali parametri rispondono, del loro esercizio, i “big tech”?

Quali le garanzie dai rischi di classificazioni errate, di informazioni parziali o incomplete, di modelli e sistemi difettosi?

O ancora, e soprattutto, chi garantirà l’affidabilità e la trasparenza dei criteri usati per selezionare, classificare, decidere?

E come ripensare le norme giuridiche – anche in tema di responsabilità –rispetto alle applicazioni dell’intelligenza artificiale?

Come assicurare, nel mondo dei big data, modelli equi ed efficienti sia di concorrenza che – insieme – di protezione dati?

Il dibattito che seguirà rappresenta una buona occasione per approfondire questi temi.

Fonte: http://www.garanteprivacy.it

Data Protection Officer, vacilla la norma #privacy

Fino a 45mila esperti di protezione dei dati con il Regolamento UE 2016/679, ma norma UNI in cantiere da un anno e mezzo non soddisfa le aspettative per assicurare la necessaria trasparenza sul mercato, specialmente sul DPO.

************ GLI STRUMENTI PER GLI ESPERTI PRIVACY 2017 **********
_ Corso on line Esperto Privacy Regolamento europeo 679/2016
_ Kit software regolamento europeo 679/2016
****************************************************************

Uno dei principali obiettivi del nuovo Regolamento UE 2016/679, è quello di creare il giusto clima di fiducia tra i cittadini per far decollare il mercato digitale nell’Unione Europea, un’economia da 272 milioni di euro che può continuare a crescere solo se gli utenti si sentono a loro agio mentre fanno acquisti in Internet, senza doversi preoccupare che i loro dati personali potrebbero essere trattati illecitamente o utilizzati per commettere frodi a loro danno.

E se da una parte la nuova normativa comunitaria sulla privacy inizia a preoccupare le imprese, che si dovranno adeguare entro il 25 maggio 2018 per non rischiare multe fino a 20 milioni di euro o fino al 4% del fatturato annuo, sul fronte del mercato del lavoro ci sono invece prospettive positive, derivanti dalla crescente necessità di esperti della materia e dall’obbligo di nomina di un “data protection officer” per tutte le pubbliche amministrazioni e per le imprese che trattano su larga scala dati sensibili o altri dati che presentano rischi specifici, oppure se nelle attività principali vengono effettuati trattamenti che richiedono il controllo regolare e sistematico degli interessati, come avviene spesso nelle attività di e-commerce in cui gli utenti vengono profilati online per proporre loro prodotti e servizi in base ai loro gusti e alle loro preferenze.

Un contesto che, secondo le stime dell’Osservatorio di Federprivacy, nei prossimi 12 mesi potrà richiedere fino a 45mila esperti solo in Italia. Numeri importanti, quelli di un’emergente categoria professionale che necessiterebbe però di più trasparenza nel mercato con standard e parametri di riferimento che sono in cantiere da un anno e mezzo con una specifica norma UNI arrivata ora a conclusione del suo iter, ma i cui contenuti non convincono la principale associazione di riferimento del settore:

“Quello della norma tecnica sarebbe stato lo strumento ideale a disposizione degli stakeholder per definire i requisiti che devono possedere i professionisti della privacy per poter essere riconosciuti dal mercato, ovviamente a condizione imprescindibile che tali regole fossero allineate alle prescrizioni del Regolamento UE e alle recenti Linee Guida del Working Party Art.29, nelle quali è stato precisato che il data protection officer deve avere in particolare una conoscenza specialistica della normativa e delle prassi in materia, talvolta anche più elevata in base alla complessità o alla mole dei trattamenti effettuati – spiega il presidente di Federprivacy, Nicola Bernardi – Da parte nostra, abbiamo segnalato in tutte le sedi la necessità di disegnare un profilo adeguato del DPO, ma ora dobbiamo con rammarico constatare che il progetto finale di norma vede un profilo professionale stravolto rispetto ai dettati dell’UE, generico per quanto riguarda le conoscenze giuridiche della normativa, e con molte altre conoscenze invece informatiche, riconducibili più a quelle di un security manager che a quelle richieste a un data protection officer. Allo stato attuale – conclude Bernardi – questa norma non risponde ne’ alle prescrizioni di legge, ne’ alle esigenze di mercato, e per questo rischia di essere solo fuorviante per le imprese che sono alla ricerca del professionista giusto a cui conferire l’incarico.”

Il documento in questione, (Cod. Progetto E14D00036), è stato messo ora all’inchiesta pubblica finale, e tutte le parti interessate possono esprimere i loro commenti fino al 25 marzo 2017, quando UNI tirerà le somme per verificare se ci siano i presupposti perché la norma sul data protection officer possa venire alla luce oppure no.

Certo è, che per spingere sul mercato digitale l’Unione Europea ha varato una riforma sulla protezione dei dati personali egualmente vigente in tutti gli Stati membri, e altrettanto evidente è che la norma così com’è allo stato attuale devia da quella direzione, e rischia di far mancare alle imprese le giuste professionalità, con il pericolo di ingenerare confusione nel mercato delle professioni.

Imprese e pubbliche amministrazioni, devono perciò vigilare attentamente per non incorrere in pesanti sanzioni, perché è in gioco la loro organizzazione e la capacità di rispettare la normativa sulla circolazione e protezione dei dati, senza dimenticare infine che è indispensabile evitare di offuscare i diritti fondamentali che sono riconosciuti per legge ai cittadini.

Comunicato Stampa Federprivacy del 26 gennaio 2017

Notifica privacy obbligatoria per le strutture sanitarie, che trattano dati relative a malattie mentali, infettive e diffusive

Notifica privacy obbligatoria per le strutture sanitarie, che trattano dati relative a malattie mentali, infettive e diffusive. È questo il principio formulato dalla Corte di cassazione, accogliendo la tesi del garante. Nel caso specifico una struttura sanitaria privata è stata sanzionata dal garante per avere omesso di inviare all’autorità la notificazione prevista dall’articolo 37 del Codice della privacy (dlgs 196/2003).

************ GLI STRUMENTI PER GLI ESPERTI PRIVACY 2017 **********
_ Corso on line Esperto Privacy Regolamento europeo 679/2016
_ Kit software regolamento europeo 679/2016
****************************************************************

Scarica la sentenza da Alert Privacy

Il titolare del trattamento potrà fare causa al DPO per inadempimento

Il mercato ha forti aspettative e hanno altrettanto forti aspettative anche i consulenti, che aspirano a un impiego di alto livello e possibilmente ben remunerato. D’altra parte, aziende ed enti pubblici devono stare attenti a individuare bene i soggetti idonei: se si affidano a chi dà loro cattivi consigli, questo non eliminerà la responsabilità verso clienti, utenti o la responsabilità amministrativa o penale. E può essere che far causa al cattivo Dpo sia una magra consolazione (quando non inefficace, per mancanza di solvibilità o di copertura assicurativa del rischio professionale del Data Protection Officer).

Dunque, vediamo che cosa deve sapere il Dpo.

************ GLI STRUMENTI PER GLI ESPERTI PRIVACY 2017 **********
_ Corso on line Esperto Privacy Regolamento europeo 679/2016
_ Kit software regolamento europeo 679/2016
****************************************************************

È importante, sostengono le Linee guida, che il Dpo abbiano competenza sulla normativa nazionale ed europea e sulle prassi relative alla materia della protezione di dati.

 

Le Linee guida aggiungono la necessità di una profonda conoscenza del regolamento europeo. È utile anche prevedere programmi di aggiornamento continuo.

 

A queste competenze sulla normativa specifica della privacy è utile aggiungere la conoscenza del settore commerciale del titolare del trattamento.

 

Il Dpo dovrebbe avere sufficiente conoscenza delle operazioni di trattamento, e altrettanta sufficiente conoscenza del sistema informativo, della sicurezza de dati e delle esigenza di protezione dei dati. Nel caso di ente pubblico, il Dpo dovrebbe avere una solida conoscenza dell’ordinamento e dell’organizzazione delle pubbliche amministrazioni.

Riportando le parole delle Linee guida alle esigenze della pratica quotidianità imprenditoriale o dell’attività dell’ente pubblico, il Dpo deve essere un giurista, deve essere uno che è capace di comprendere la volo il vocabolario giuridico del Regolamento.

************ GLI STRUMENTI PER GLI ESPERTI PRIVACY 2017 **********
_ Corso on line Esperto Privacy Regolamento europeo 679/2016
_ Kit software regolamento europeo 679/2016
****************************************************************

Il Dpo, qualunque siano il curriculum degli studi e i titoli formali posseduti, deve sapere manovrare i testi giuridici: regolamento e direttive europei, normativa nazionale e provvedimenti delle autorità garanti.

Questa competenza giuridica il Dpo la deve soprattutto a se stesso per non assumere compiti che non è in grado di svolgere: se sottovaluterà questo aspetto si renderà responsabile per colpa e destinato a pagare i danni al proprio committente (anche se non è da escludere una responsabilità diretta a favore degli interessati).

 

Tanto per fare esempi: il Dpo deve distinguere a menadito il consenso esplicito da quello inequivoco; deve sapere quando scatta la valutazione di impatto privacy e quando c’è violazione delle libertà altrui in caso di portabilità dei dati e cosa significa responsabilità solidale e così via.

 

Responsabilità. Il Gruppo di lavoro art. 29 affronta il quesito della responsabilità del Dpo sia nelle Linee guida sia in una delle faq allegate alle stesse.

 

In caso di trattamenti non conformi al regolamento europeo, il Gruppo di lavoro afferma che il Dpo non è personalmente responsabile, richiamando il fatto che il regolamento esige la dimostrazione di osservanza del regolamento sesso solo a carico del titolare e del responsabile del trattamento.

************ GLI STRUMENTI PER GLI ESPERTI PRIVACY 2017 **********
_ Corso on line Esperto Privacy Regolamento europeo 679/2016
_ Kit software regolamento europeo 679/2016
****************************************************************

Si deve aggiungere, però, che in caso di cattiva consulenza al titolare del trattamento, questo potrà fare causa al Dpo per inadempimento del contratto di servizio e per chiedere i conseguenti danni. Si aggiunge che non è da escludere una responsabilità extracontrattuale diretta del Dpo nei confronti degli interessati, che subiscano danni per un trattamento operato dal titolare, ma conforme al parere errato del Dpo.

 

Società di Dpo. Le Linee guida evidenziano che la funzione di Dpo può anche essere svolta da un consulente esterno o da una organizzazione esterna (ad esempio, una società) sulla base di un contratto di servizi. Nel caso di società è essenziale che ogni componente dell’organizzazione esterna possieda i requisiti di conoscenza e competenza.

 

Sempre nel caso di società di Dpo, il Gruppo di lavoro ex art. 29 esige che si debba assegnare a ogni cliente un singolo Dpo, come referente specifico, che ha in carico quel particolare titolare di trattamento.

Di tutto ciò si deve dare conto nel contatto di servizio.

Fonte: Italia Oggi del 9 gennaio 2017

************ GLI STRUMENTI PER GLI ESPERTI PRIVACY 2017 **********
_ Corso on line Esperto Privacy Regolamento europeo 679/2016
_ Kit software regolamento europeo 679/2016
****************************************************************