Quasi la metà del traffico su Internet è generata da entità automatizzate chiamate bot e gran parte di loro rappresentano una minaccia per i consumatori e le imprese sul web.
“[B]ots può aiutare a creare truffe di phishing guadagnando la fiducia degli utenti e sfruttandola per i truffatori. Queste truffe possono avere gravi implicazioni per la vittima, alcune delle quali includono la perdita finanziaria, il furto di identità e la diffusione di malware. Cemper, fondatore di AIPRM, una società di ingegneria e gestione tempestiva dell’intelligenza artificiale, a Wilmington, Del., ha dichiarato in una dichiarazione fornita a TechNewsWorld.
“Purtroppo, questa non è l’unica minaccia alla sicurezza rappresentata dai bot”, ha continuato. Possono anche danneggiare la reputazione del marchio, in particolare per marchi e aziende con profili di social media popolari e alti tassi di coinvolgimento. Abbinando un marchio a pratiche fraudolente e non etiche, i bot possono offuscare la reputazione di un marchio e ridurre la fedeltà dei consumatori.
Secondo il rapporto di fondo Imperva 2024 Bad Bot, i livelli di traffico dei bot sono aumentati per il quinto anno consecutivo, indicando una tendenza allarmante. Ha notato che l’aumento è in parte guidato dalla crescente popolarità dell’intelligenza artificiale (AI) e dei grandi modelli di apprendimento (LLM).
Nel 2023, i cattivi bot rappresentavano il 32% di tutto il traffico Internet – un aumento dell’1,8% rispetto al 2022, ha spiegato il rapporto. Anche la parte del buon traffico bot è aumentata, anche se leggermente meno significativamente, dal 17,3% di tutto il traffico Internet nel 2022 al 17,6% nel 2023. Combinato, il 49,6% di tutto il traffico Internet nel 2023 non era umano, poiché i livelli di traffico umano sono diminuiti al 50,4% di tutto il traffico.
“I buoni bot aiutano a indicizzare il web per i motori di ricerca, automatizzare il monitoraggio della sicurezza informatica e assistere il servizio clienti attraverso i chatbot”, ha spiegato James McQuiggan, un sostenitore della consapevolezza della sicurezza di KnowBe4, un fornitore di formazione per la sensibilizzazione alla sicurezza a Clearwater, in Florida.
“Assumono nel rilevamento delle vulnerabilità, nel miglioramento dei flussi di lavoro IT e nella razionalizzazione delle procedure online”, ha detto a TechNewsWorld. “Il trucco è sapere cosa è l’automazione preziosa e l’attività nefasta.”
Biglietto Scalping su scala
L’automazione e il successo stanno guidando le tendenze di crescita per il traffico di botnet, ha spiegato Thomas Richards, direttore della rete e dello studio del team rosso di Black Duck Software, una società di sicurezza delle applicazioni a Burlington, Mass.
“Essere in grado di scalare consente agli attori malintenzionati di raggiungere i loro obiettivi”, ha detto a TechNewsWorld. “L’intelligenza artificiale sta avendo un impatto permettendo a questi attori malintenzionati di agire più umani e automatizzare la codifica e altri compiti. Google, ad esempio, ha rivelato che Gemini è stato utilizzato per creare cose dannose.
“Vediamo anche questo in altre esperienze quotidiane”, ha continuato, “come la lotta degli ultimi anni per ottenere biglietti per concerti per eventi popolari. Gli Scalpers trovano il modo di creare utenti o utilizzare account compromessi per acquistare i biglietti più velocemente di quanto un essere umano possa mai fare. Guadagnano vendendo i biglietti ad un prezzo molto più alto”.
È facile e redditizio implementare attacchi automatici, ha aggiunto Stephen Kowski, CTO sul campo di SlashNext, una società di sicurezza informatica e di rete a Pleasanton, in California.
“I criminali stanno utilizzando strumenti sofisticati per aggirare le misure di sicurezza tradizionali”, ha detto a TechNewsWorld. “I sistemi basati sull’intelligenza artificiale rendono i bot più convincenti e più difficili da rilevare, consentendo loro di imitare meglio il comportamento umano e adattarsi alle misure difensive”.
“La combinazione di strumenti di intelligenza artificiale prontamente disponibili e il crescente valore dei dati rubati crea le condizioni perfette per attacchi bot ancora più avanzati in futuro”, ha affermato.
Perché i cattivi bot sono una grave minaccia
David Brauchler, direttore tecnico e responsabile della sicurezza AI e ML presso il Gruppo NCC, una società di consulenza globale sulla sicurezza informatica, si aspetta che il traffico Internet non umano continui a crescere.
“Man mano che sempre più dispositivi diventano connessi a Internet, le piattaforme SaaS aggiungono funzionalità interconnesse e nuovi dispositivi vulnerabili entrano nella scena, il traffico relativo ai bot ha avuto l’opportunità di continuare ad aumentare la sua quota di larghezza di banda della rete”, ha detto a TechNewsWorld.
Brauchler ha aggiunto che i bot cattivi sono in grado di causare gravi danni. “Gli bot sono stati utilizzati per innescare interruzioni di massa travolgendo le risorse di rete per negare l’accesso a sistemi e servizi”, ha affermato.
“Con l’avvento dell’intelligenza artificiale generativa, i bot possono anche essere utilizzati per impersonare attività realistiche degli utenti su piattaforme online, aumentando il rischio di spam e le frodi”, ha spiegato. Possono anche cercare e sfruttare le vulnerabilità di sicurezza nei sistemi informatici.
Ha sostenuto che il più grande rischio dell’IA è la proliferazione dello spam. “Non esiste una soluzione tecnica forte per identificare e bloccare questo tipo di contenuti online”, ha spiegato. “Gli utenti hanno iniziato a chiamare questo fenomeno AI slop e rischia di affogare il segnale di legittime interazioni online nel rumore dei contenuti artificiali”.
Ha avvertito, tuttavia, che l’industria dovrebbe essere molto attenta quando considera la soluzione migliore a questo problema. “Molti potenziali rimedi possono creare più danni, in particolare quelli che rischiano di attaccare la privacy online”, ha affermato.
Come identificare i Bot Maligni
Brauchler ha riconosciuto che può essere difficile per gli esseri umani rilevare un bot dannoso. “La stragrande maggioranza dei bot non opera in alcun modo che gli esseri umani possano rilevare”, ha detto. “Contattano direttamente i sistemi esposti a Internet, interrogando per i dati o interagendo con i servizi”.
“La categoria di bot di cui la maggior parte degli esseri umani è interessata sono agenti di intelligenza artificiale autonomi che possono mascherarsi da esseri umani nel tentativo di frodare le persone online”, ha continuato. Molti chatbot AI utilizzano modelli vocali prevedibili che gli utenti possono imparare a riconoscere interagendo con i generatori di testo AI online.
Allo stesso modo, le immagini generate dall’intelligenza artificiale hanno una serie di “piazzi” che gli utenti possono imparare a cercare, compresi i modelli rotti, come le lancette e gli orologi disallineati, i bordi degli oggetti che si fondono in altri oggetti e sfondi confusi.
“Le voci dell’IA hanno anche inllusionzioni ed espressioni di tono insolite che gli utenti possono imparare a prendere”, ha aggiunto.
I bot dannosi sono spesso utilizzati sulle piattaforme di social media per ottenere un accesso affidabile a individui o gruppi. “Guarda i segni rivelatori come modelli insoliti nelle richieste di amicizia, nelle immagini del profilo generici o rubati e negli account che pubblicano a velocità o frequenze inumane”, ha avvertito Kowski.
Ha anche consigliato di diffidare dei profili con informazioni personali limitate, modelli di coinvolgimento sospetti o di spingere programmi specifici attraverso risposte automatizzate.
Nell’azienda, ha continuato, l’analisi comportamentale in tempo reale può individuare azioni automatizzate che non corrispondono a modelli umani naturali, come clic incredibilmente veloci o compilazioni di moduli.
La minaccia per le imprese
I bot malintenzionati possono essere una minaccia significativa per le aziende, ha osservato Ken Dunham, direttore dell’unità di ricerca sulle minacce di Qualys, un fornitore di soluzioni IT, sicurezza e conformità basate su cloud a Foster City, in California.
“Una volta ammassati da un attore di minacce, possono essere armati”, ha detto a TechNewsWorld. “Gli bot hanno incredibili risorse e capacità per eseguire attacchi anonimi, distribuiti e asincroni contro obiettivi di scelta, come attacchi di credenziali della forza bruta, attacchi denial of service distribuiti, scansioni di vulnerabilità, tentativi di sfruttamento e altro ancora”.
I bot malintenzionati possono anche indirizzare i portali di accesso, gli endpoint API e i sistemi rivolti al pubblico, il che crea rischi per le organizzazioni mentre i cattivi attori sondano le debolezze per trovare un modo per accedere all’infrastruttura e ai dati interni, ha aggiunto McQuiggan.
“Senza strategie di mitigazione dei bot, le aziende possono essere vulnerabili alle minacce automatizzate”, ha affermato.
Per mitigare le minacce dei bot cattivi, ha raccomandato l’implementazione di autenticazione a più fattori, soluzioni tecnologiche di rilevamento bot e monitoraggio del traffico per anomalie.
Ha anche raccomandato di bloccare i vecchi interpreti, utilizzando Captchas, e limitando le interazioni, ove possibile, per ridurre i tassi di successo.
“Attraverso l’educazione alla consapevolezza della sicurezza e la gestione del rischio umano, la conoscenza di un dipendente dei tentativi di phishing e frodi guidata da bot può garantire una sana cultura della sicurezza e ridurre il rischio di un attacco bot di successo”, ha consigliato.