l’AI calata nella realtà aziendale

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Microcredito

per le aziende

 


L’AI è ormai essenziale per la cybersecurity, ma i benefici attesi corrispondono alla realtà? Uno studio Sophos analizza vantaggi, rischi e strategie aziendali.

L’AI si è affermata come pilastro fondamentale della cybersecurity, tanto il 99 percento delle aziende considera l’AI un requisito essenziale nella selezione della propria piattaforma di cybersecurity. Ma nella realtà l’AI porta davvero tutti i benefici attesi? È la domanda a cui si propone di rispondere la ricerca “Beyond the hype: The business reality of AI for cybersecurity” commissionata da Sophos a Vanson Bourne, che ha intervistato 400 decision maker IT nel settore della sicurezza in aziende di dimensioni medio-piccole (da 50 a 3.000 dipendenti).

L’ indagine fornisce un quadro realistico sull’utilizzo dell’AI, sui benefici attesi e sulla consapevolezza dei rischi, offrendo di fatto un benchmark importante per le organizzazioni che stanno definendo le proprie strategie di difesa informatica.

Contabilità

Buste paga

 

Aspettative e benefici della GenAI

Ci sono aspettative altissime sul potenziale riconosciuto alla GenAI nel migliorare la sicurezza informatica. Secondo la ricerca, le aziende auspicano principalmente che la GenAI migliori la propria protezione informatica. Gli intervistati non hanno espresso un singolo beneficio dominante; in generale quello che è emerso dalle interviste è che le organizzazioni vedono nella GenAI uno strumento capace di incrementare la propria tranquillità circa la protezione cyber.

Una volta portata a bordo l’AI, le valutazioni cambiano a seguito di una serie di fattori, in primis la dimensione aziendale. In particolare, le piccole imprese (fino a 100 dipendenti) considerano come vantaggio principale la riduzione dello stress dei dipendenti, probabilmente perché l’assenza di un singolo dipendente ha un forte impatto su queste realtà. Le aziende di medie dimensioni (da 100 a 250 dipendenti) privilegiano un miglior ritorno sugli investimenti in cybersecurity, mentre le imprese più grandi danno la priorità a una maggiore protezione dalle minacce cyber.

Consapevolezza dei rischi

Una delle notizie migliori è che le organizzazioni si sono dimostrate consapevoli dei potenziali pericoli, in particolare di quelli legati all’implementazione di modelli AI di scarsa qualità. La maggioranza (89%) dei professionisti interpellati si dichiara preoccupata per le eventuali vulnerabilità presenti nei tool di cybersicurezza, che potrebbero mettere a rischio la protezione delle rispettive aziende.

Come spesso accade, alla consapevolezza non si associa necessariamente una reazione concreta: la ricerca suggerisce che molte organizzazioni hanno un “punto cieco” in questo ambito, in quanto mancano le conoscenze interne e la trasparenza da parte dei fornitori per poter valutare adeguatamente i processi di sviluppo dell’AI.

Un altro rischio evidenziato dalla ricerca è quello finanziario, perché l’AI generativa può aumentare i costi dei prodotti di cybersecurity. Per ora il quadro è di assoluta fiducia: l’87% delle organizzazioni si dice fiducioso del fatto che gli investimenti in AI saranno compensati dai risparmi. Il problema è che la conferma al momento manca, e che spesso è molto difficile quantificare questi costi, ripartiti nel costo complessivo dei prodotti e servizi.

C’è poi un capitolo poco esplorato ma di sicuro interesse: la ricerca evidenzia il rischio operativo di una eccessiva dipendenza dall’AI. In altri termini, la preoccupazione è data dal fatto che molte aziende potrebbero ridurre il personale dedicato alla cybersecurity (84%) in virtù delle attività svolte in automatico dall’AI, ritrovandosi in una situazione di assenza di responsabilità nei confronti della sicurezza informatica (87%).

Su questo aspetto, gli esperti di cybersecurity hanno da sempre evidenziato (e continuano a farlo) il fatto che l’AI necessita della supervisione umana, e che in qualsiasi attività automatizzata dall’AI l’ultima parola spetta comunque all’analista esperto. Ridurre il personale per via dell’AI sarebbe quindi un evidente errore.

Raccomandazioni

La ricerca si conclude con una serie di raccomandazioni che si pongono l’obiettivo di aiutare le aziende a mitigare i rischi e a sfruttare in modo sicuro l’AI per le attività di cybersecurity. Tra le principali, troviamo una pretesa di informazioni più dettagliate da parte dei fornitori, una valutazione attenta degli investimenti, che tenga in considerazione obiettivi chiari e specifici per l’AI. E soprattutto, una prospettiva “human-first”: l’AI è non è un sostituto dell’analista, è uno strumento nella toolbox della cybersecurity, che dev’essere usato per supportare il personale automatizzando compiti ripetitivi.

Finanziamenti e agevolazioni

Agricoltura

 



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link