La bolla “artificiale” dell’Intelligenza Artificiale e il futuro della cybersicurezza

Credo che il recente articolo del New York Times sul boom dell’ “intelligenza artificiale” nella Silicon Valley abbia fatto riflettere molte persone sul futuro della cybersicurezza (nel prossimo e nel lontano futuro).

Penso che ci si sia posti domande del genere:

  • Dove andrà a parare la preoccupazione maniacale per l’ “IA”, che adesso esiste sono nelle fantasie dei futurologi?
  • Quanti altri miliardi metteranno a rischio gli investitori, per “inventare”, nel migliore dei casi, qualcosa che era stata già inventata decenni fa, e che nel peggiore dei casi risulterà essere nient’altro che marketing inflazionato… stupidi?
  • Quali sono le vere opportunità per lo sviluppo di tecnologie intelligenti sulla cybersicurezza?
  • E quale sarà il ruolo degli esperti in questo mondo nuovo?

A VOLTE QUANDO FREQUENTO I FAN DELL'”IA” QUI NELLA VALLEY, MI SENTO COME UN ATEO AD UNA CONVENTION DI EVANGELICI.

Jerry Kaplan, informatico, autore, futurista e pluri-imprenditore (cofondatore di Symantec)

Quello che sta succedendo adesso nel settore dell’ “IA”, somiglia ad una bolla di sapone. Tutti sappiamo cosa succede ad una bolla di sapone se i clown del circo continuano a soffiarci (nessun gioco di parole): scoppiano.

Ovviamente, senza passi azzardati e investimenti rischiosi non sarà mai possibile un futuro fantastico. Ma oggi il problema è che insieme a quest’ondata di entusiasmo per l’ “IA” (ricordate, l’ “IA” oggi non esiste, per questo sto usando le virgolette), sono apparse le startup fittizie.

Qualche startup? Qual è il problema, vi starete chiedendo.

Il problema è che queste startup fittizie non attraggono milioni, ma miliardi di dollari di investimenti (cavalcando la nuova ondata d’euforia sull’apprendimento automatico). La questione è che l’apprendimento automatico esiste da decenni: è stato definito nel 1959, è iniziato negli anni 70, è diventato prospero negli anni 90 e sta ancora prosperando! Andando avanti fino ai giorni nostri, questa “nuova” tecnologia è stata ridefinita “intelligenza artificiale”; adotta un’aura di scienza all’avanguardia; ha i dépliant più patinati, ha le campagne di marketing più affascinanti. E tutto questo mira alla sempre presente debolezza umana nel credere ai miracoli (e alle teorie di cospirazione sulle cosiddette tecnologie “tradizionali”). Tristemente, il settore della cybersicurezza non è scampato a questa nuova bolla di “IA”…

artificial-intelligence

Qui nel settore della cybersicurezza, si presentano per la prima volta nuovi prodotti “rivoluzionari” che, come per magia, risolvono tutti i problemi di sicurezza e proteggono tutti e tutto da ogni singola cyber minaccia in un colpo solo: le startup fittizie non si fermano davanti a niente per presentare le informazioni in un modo che manipola l’opinione pubblica e assicura fraintendimenti della situazione reale. Nel frattempo, dietro uno di questi prodotti rivoluzionari non esiste affatto una “tecnologia avanzata”. Al contrario, esiste una tecnologia risalente al motore a vapore! Ma chi sta dando un’occhiata? E chi permetterebbe a chiunque di dare un’occhiata? Potete trovare qualche informazione in più su questa situazione qui.

Alcune di queste startup sono arrivate ad avere anche un IPO (ovvero un’offerta pubblica). Alcuni venture capitalist (ovvero quei investitori che offrono i capitali alle startup o le supportano in qualche modo) potrebbero far un buon lavoro (se rivendono velocemente); ma a lungo termine si tratta di un mercato azionario deludente in tutto e per tutto. Per un’attività economica in perdita fondata sulle “fesserie del marketing” non si evincono effetti benefici, ed è inevitabile che si verifichi un netto calo del prezzo delle azioni dopo aver raggiunto il vertice. Nel frattempo, quella continua e timida macchina che è il marketing bisogna pagarla (e non è economica).

Facciamo un passo indietro. 

Nessuna venture relazionata con i settori della cybersicurezza e dell’IA ha tratto ancora dei profitti!

Il venture capitalism si chiama “venture” perché comporta un rischio. Un buon venture capitalist è uno che sa dove sia meglio riporre i fondi (e quanti fondi) in modo tale da ricavare un buon profitto in tot anni. Ad ogni modo, c’è una sfumatura quando si parla di “IA”: per il momento nessuna venture relazionata con i settori della cybersicurezza e dell’IA ha tratto ancora dei profitti! Quindi perché un venture capitalist dovrebbe investire in un’IA rischiosa? Bella domanda.

L’obiettivo principale dei modelli commerciali per molte startup della Silicon Valley (non tutte, c’è qualche eccezione) non è quello di intraprendere ricerche serie e costose e di inventarsi prodotti/tecnologie che venderanno bene. Al contrario, vogliono creare bolle: attrarre gli investitori, vendere velocemente con un prezzo delle azioni basato sulla “valutazione degli utili futuri”, e poi… beh, poi il caos (perdite massicce) sarà un problema di qualcun altro. Ma aspettate! Non è finita qui: le entrate OSTACOLANO tale modello!

NON SI TRATTA DI QUANTO GUADAGNATE. SI TRATTA DI QUANTO VALETE. E CHI VALE DI PIÙ? LE AZIENDE CHE PERDONO SOLDI.

Silicon Valley, 2014

Ecco un tipico modello commerciale, ridotto a 75 secondi dagli esperti di media nella serie TV Silicon Valley (sebbene sia offensiva e divertente, si basa su fatti reali!):

 

Le bolle nate attorno all’Intelligenza Artificiale ricordano la bolla del mercato immobiliare in America, che è cresciuta a dismisura durante la crisi finanziaria globale. La piramide dei sotto-prodotti dell’investimento basata sui mutui subprime andavano bene per molte persone: a milioni di persone è andata bene, grazie tante. E a decine di migliaia di loro è andata stupendamente (grazie mille). E poi, boom: la piramide è crollata, l’economia mondiale ha iniziato a barcollare e i buchi sono stati tappati con il denaro dei contribuenti per evitare l’apocalisse finanziaria (i contribuenti ovviamente sono le stesse persone e le stesse aziende che inizialmente hanno fatto i soldi). Non conoscete ancora lo scandalo del decennio? Allora guardate il film “La grande scommessa“.

Come se tutto questo non fosse abbastanza, la bolla di IA ha in serbo un altro pericolo (screditare l’apprendimento automatico): uno dei sotto settori più promettenti della cybersicurezza.

Cosa c’è di tanto “pericoloso”? Beh, è solo grazie all’apprendimento automatico che l’umanità non è annegata in un grande ammasso di dati, che negli ultimi decenni è aumentato di un miliardo di volte. Ad esempio, la quantità di programmi dannosi sono aumentati nel giro di 10 anni di circa mille volte: all’inizio del secolo analizzavamo ogni giorno circa 300 diversi parti di malware; adesso quella cifra ha tre zeri alla fine. E di quanto è cresciuto il numero degli analisti? Quattro. Quindi come siamo stati al passo? Due parole: apprendimento automatico

La bolla di IA scredita l’apprendimento automatico (uno dei sotto settori più promettenti della cybersicurezza)

Facendo un passo fino ai giorni nostri, il 99,9% degli attacchi che rileviamo viene individuato dai nostri sistemi automatici. Sembra che gli analisti se la ridano con così poco da fare?! Tutt’altro! Mettono a punto questi sistemi per renderli più efficienti e cercano di svilupparne di nuovi.

Ad esempio, abbiamo esperti che non fanno nient’altro se non scoprire veeeeeri e complessi attacchi informatici, e che poi trasferiscono la loro conoscenza e le loro abilità ai nostri sistemi automatici. Poi ci sono esperti dei dati che provano diversi modelli e metodi di apprendimento automatico.

A differenza delle startup fittizie, proteggiamo gli utenti attraverso un’enorme infrastruttura cloud, in grado di risolvere in maniera rapida ed efficace molti altri compiti complicati. E sì, è per questo motivo che adoperiamo tanti modelli diversi di apprendimento automatico.

Gli unici attacchi informatici che studiamo manualmente sono i più complessi in cui ci imbattiamo. Anche in quel caso, fatta una panoramica completa sulle macchine, abbiamo ancora problemi per trovare staff di specialisti. Per di più, il numero di requisiti specifici di cui abbiamo bisogno per potenziali analisti di KL aumenta vertiginosamente.

Prima o poi il circo “dei ‘cervelli artificiali’ in grado di salvare il mondo” giungerà ad un epilogo. Gli esperti potranno finalmente testare i prodotti-fesseria con “Intelligenza Artificiale”, i clienti capiranno che sono stati fregati e gli investitori perderanno interesse. Ma come potrà svilupparsi ulteriormente l’apprendimento automatico?

LA SILICON VALLEY HA AFFRONTATO UN FALSO INIZIO CON L’IA. DURANTE GLI ANNI ’80, ANCHE UNA PRECEDENTE GENERAZIONE DI IMPRENDITORI CREDEVA CHE L’INTELLIGENZA ARTIFICIALE FOSSE IL FUTURO, DIRIGENDO UNA VALANGA DI STARTUP. A QUEL TEMPO I LORO PRODOTTI OFFRIVANO POCO VALORE COMMERCIALE E QUINDI L’ENTUSIASMO COMMERCIALE SI È TRADOTTO IN DELUSIONE, DANDO INIZIO A UN PERIODO OGGI CONOSCIUTO COME L’INVERNO DELL’IA”

John Markoff, New York Times

Nel periodo successivo allo scoppio della bolla di IA, tutti i settori simili ne pagheranno le conseguenze. “Apprendimento automatico? Rete neurale? Rilevamento comportamentale? Analisi cognitiva? Arrrrgh (altri termini per definire l’intelligenza artificiale? No grazie: non voglio saperli. Non li toccherei nemmeno con un dito!”).

C’è di peggio: la maledizione della bolla di IA affievolirà l’interesse nelle promettenti tecnologie per molti anni, proprio come negli anni ’80.

Inoltre, i fornitori avviati continueranno a investire nelle tecnologie intelligenti. Ad esempio, abbiamo introdotto le tecnologie di boosting e di apprendimento basato su alberi di decisione per rilevare attacchi sofisticati mirati e un’energica protezione contro le future minacce (sì, minacce che ancora non esistono!).

Un’area di sviluppo particolarmente promettente è quella che incrementa la complessità del quadro degli eventi correlati in tutti i livelli delle infrastrutture e un’ulteriore analisi automatica dei dati per rilevare gli attacchi informatici più complessi in maniera accurata e affidabile. Abbiamo già applicato queste funzioni nella nostra Piattaforma KATA e non vediamo l’ora di svilupparne altre. 

La maledizione della bolla di IA affievolirà l’interesse nelle promettenti tecnologie per molti anni, proprio come negli anni ’80.

Ma come se la passano le startup oneste di apprendimento automatico? Ahimè, oggi l’abuso del termine IA farà solo rallentare lo sviluppo.

Tenete in considerazione, però, che il progresso non si fermerà: continuerà ancora, anche se con ritmi più lenti.

Il genere umano si muoverà sicuramente verso l’automazione di ogni cosa, anche se lentamente (fino a raggiungere le cose più piccole e irrilevanti dei processi di ogni giorno). E non si tratterà solo di automazione, ma di un’interazione che si adatta tra l’uomo e la macchina (costruita su algoritmi di apprendimento automatico super avanzati). Stiamo già assistendo a questa interazione, e la velocità con cui si diffonde in sempre più diverse applicazioni a volte fa paura.

Anche il settore della cybersicurezza assisterà ad una costante crescita dell’automazione.

Ad esempio, abbiamo già una soluzione per includere la sicurezza nel paradigma delle “smart city” (incluso vari aspetti robotici come il controllo automatico del traffico stradale) per il controllo sicuro dell’infrastruttura critica. E la mancanza di esperti sarà sempre più grave, non a causa della diffusione delle tecnologie ma a causa della richiesta sempre crescente di competenze personali. I sistemi di apprendimento automatico per la cybersicurezza richiedono una conoscenza enciclopedica e capacità specifiche in un vasto numero di settori (incluso i big data, le indagini e le ricerche sui crimini informatici e la programmazione del sistema e delle applicazioni). Il fatto che un essere umano possieda questo sapere vasto e specifico è un’impresa rara: è quello che li rende specialisti unici/di alta qualità/strepitosi. E insegnare tutto questo sapere non è facile. Ma si deve continuare a farlo se vogliamo assistere a un vero sviluppo delle tecnologie intelligenti. Non c’è altro modo.

Quindi chi sarà a comandare in questo nuovo mondo del futuro? Gli uomini continueranno a controllare i robot o i robot controlleranno gli uomini?

Nel 1999 Raymond Kurzweil propose una teoria che riguarda l’intelletto simbiotico (anche se altri avevano già avuto un’idea simile): la fusione dell’uomo con la macchina, un organismo cibernetico che combina l’intelligenza umana e la grande potenza informatica dei supercomputer (“intelligenza umanartificiale”). Ma non si tratta di fantascienza, sta già accadendo. E credo che il suo continuo sviluppo non sia solo il percorso più probabile, ma anche il più vantaggioso per lo sviluppo del genere umano. 

La fusione dell’uomo con la macchina non è solo il percorso più probabile, ma anche il più vantaggioso per lo sviluppo del genere umano.

Ma questo ulteriore sviluppo della fusione di uomo e macchina arriverà a raggiungere la singolarità tecnologica? L’uomo perderà la capacità di essere aggiornato su quello che succede, e le macchine avranno il pieno controllo del mondo?

La caratteristica fondamentale dell’IA della macchina è la capacità di migliorare e perfezionarsi all’infinito senza l’intervento dell’uomo (una capacità che potrebbe crescere e crescere fino ad oltrepassare i limiti dei suoi algoritmi). In altre parole, l’IA della macchina rappresenta una nuova forma di intelligenza. E il giorno lontano (ma in teoria probabile) in cui “andrà fuori dagli algoritmi” segnerà l’inizio della fine del mondo così come lo conosciamo. A beneficio degli esseri umani, come per le leggi della robotica, le macchine un giorno potranno liberarci dalla sofferenza mentale e dal peso dell’esistenza.

IA: UNA VERA SVOLTA NEL SETTORE DELLA CYBERSICUREZZA O UN BATTAGE PUBBLICITARIO? @E_KASPERSKY ATTACCA LA BOLLA DI IA, LODA L’APPRENDIMENTO AUTOMATICO #AI_OILTWEET

O… forse un programmatore (come spesso accade) lascerà un paio di errori nel codice? Aspettiamo e vedremo…

ai_oil

LEGGI I COMMENTI 0
Scrivi un commento