IA Generativă (Inteligența Artificială Generativă): o binecuvântare sau un blestem pentru securitatea cibernetică?

IA Generativă (Inteligența Artificială Generativă): o binecuvântare sau un blestem pentru securitatea cibernetică?

IA Generativă (Inteligența Artificială Generativă): o binecuvântare sau un blestem pentru securitatea cibernetică?

  • acum 7 luni
  • postat de: NSHOST

Nu există nicio îndoială că organizațiile ar trebui să fie preocupate de riscurile pe care le prezintă această nouă eră a inteligenței artificiale generative. Momentul ChatGPT în domeniul securității cibernetice este semnificativ atât din motive tehnologice, cât și de marketing. Analiștii și experții în securitate au propriile motive.

Ascensiunea culturală și economică a ChatGPT din ultimele luni a condus la un interes pentru inteligența artificială generativă în ansamblu, iar acest moment a inclus și securitatea cibernetică.

ChatGPT, dezvoltat și publicat de firma de cercetare OpenAI, este considerat un model de limbaj mare (LLM), un tip de model IA utilizat pentru a genera text. LLM-urile sunt în sine un tip de IA generativă, o ramură emergentă a inteligenței artificiale în care modelele sunt folosite pentru a crea conținut, cum ar fi imagini, audio sau text, folosind o cantitate enormă de date de învățare/calibrare - de exemplu, generatorul de imagini Dall-E al OpenAI.

Popularitatea imensă a ChatGPT a fost, fără îndoială, susținută de investiția de miliarde de dolari anunțată de Microsoft în OpenAI în toamna anului trecut, care a dus la integrarea chatbot-ului cu motorul de căutare Bing al gigantului software. În urma acestei investiții, o serie de produse „alimentate de inteligență artificială” au intrat pe piață în ultimele șase luni. De exemplu, IA generativă a fost tema neoficială a Conferinței RSA 2023 din aprilie, deoarece mulți furnizori au avut de prezentat oferte bazate pe AI.

Mai mulți furnizori de securitate cibernetică prezenți la conferință au declarat că folosesc AI și învățarea automată de ani de zile. Conceptul extrem de vast de inteligență artificială a fost integrat în diferite forme de zeci de ani, iar unii furnizori au creat seturi de date avansate de ani de zile.

Dar IA generativă este în creștere, deși experții au fost împărțiți cu privire la ceea ce a condus la acest moment. Unii au spus că a fost rezultatul marketingului mai mult decât al progreselor tehnologice reale, iar alții au spus că IA generativă precum și ChatGPT duce la un moment de răscruce.

Inteligența artificială generativă este aici pentru a rămâne, iar responsabilii CISO, în special, nu își pot permite să închidă ochii la riscurile pe care le prezintă această nouă tehnologie. Așadar, care sunt riscurile și cum se pot proteja companiile în mijlocul noului peisaj al amenințărilor generate de AI?

Exploatarea inteligenței artificiale generative de către infractorii cibernetici 

Apariția ChatGPT și a modelelor similare de inteligență artificială generativă a creat un nou peisaj al amenințărilor, în care aproape oricine dorește să desfășoare activități cibernetice rău intenționate împotriva unei companii, poate face acest lucru. Infractorii cibernetici nu mai trebuie să aibă cunoștințe sau abilități avansate de codificare. Tot ce le trebuie este o acțiune rău intenționată și acces la ChatGPT.

Frauda de influență ar trebui să fie un domeniu de preocupare deosebită pentru organizații în viitor. Nu este în niciun caz un concept nou sau inedit; de ani de zile, roboții au fost utilizați pentru a genera comentarii pe platformele de socializare și în secțiunile de comentarii din mass-media pentru a modela discursul politic. De exemplu, în săptămânile care au precedat alegerile prezidențiale din 2016, s-a constatat că roboții au dat retweet lui Donald Trump de zece ori mai mult decât lui Hillary Clinton. Dar acum, în era IA generative, acest tip de înșelăciune - care a fost rezervat istoric pentru fraude politice la nivel înalt - ar putea să se scurgă până la nivel organizațional. În câteva secunde, actorii rău intenționați ar putea, teoretic, să folosească ChatGPT sau Google Bard pentru a genera milioane de mesaje dăunătoare pe rețelele de socializare, în principalele canale de știri sau pe paginile de servicii pentru clienți. Atacurile proiectate împotriva companiilor - inclusiv a clienților și angajaților acestora - pot fi executate la o scară și cu o viteză fără precedent.

O altă preocupare majoră pentru organizații este creșterea boboților răi. În 2021, 27,7% din traficul de internet global a fost făcut din roboți răi, iar în ultimii doi ani, acest număr a crescut vertiginos. Cu capabilitățile sale avansate de procesare a limbajului natural, ChatGPT poate genera șiruri realiste de „user agent” necesare pentru validarea unor requesturi pe servere, poate genera și amprente ale browserului și alte atribute care pot face ca roboții de scraping să pară a fi utilizatori legitimi. De fapt, conform unui raport recent, GPT-4 este atât de abil în a genera limbaj, încât a convins un om că a fost orb pentru a-l determina să rezolve un CAPTCHA pentru chatbot. Aceasta reprezintă o amenințare enormă la adresa securității întreprinderilor și va deveni o problemă din ce în ce mai mare pe măsură ce se dezvoltă IA generativă. 

 

IA generativă poate servi drept binecuvântare pentru CISO (Chief Information Security Officer)

Riscurile reprezentate de inteligența artificială generativă sunt, fără îndoială, alarmante, însă tehnologia este aici pentru a rămâne și avansează rapid. Prin urmare, responsabilii CISO trebuie să utilizeze IA generativă pentru a-și consolida strategiile de securitate cibernetică și pentru a dezvolta apărări mai solide împotriva noului val de atacuri malițioase sofisticate.

Una dintre cele mai mari provocări cu care se confruntă în acest moment CISO este deficitul de competențe în domeniul securității cibernetice. Până în prezent, există aproximativ 3,5 milioane de locuri de muncă în domeniul cibernetic deschise în întreaga lume și, în cele din urmă, fără personal calificat, organizațiile pur și simplu nu se pot proteja împotriva amenințărilor. Cu toate acestea, IA generativă oferă o soluție la această provocare la nivelul întregii industrii, deoarece instrumente precum ChatGPT și Google Bard pot fi utilizate pentru a accelera munca manuală și a reduce fluxul de lucru al personalului de securitate cibernetică întinat. În special, ChatGPT poate contribui la accelerarea dezvoltării codului și la detectarea codului vulnerabil, îmbunătățind securitatea. Introducerea interpretului de cod GPT-4 este un schimbător de joc pentru organizațiile cu personal redus, deoarece automatizarea operațiunilor plictisitoare poate elibera timp pentru ca experții în securitate să se concentreze asupra problemelor strategice. Microsoft contribuie deja la eficientizarea acestor operațiuni pentru personalul de securitate cibernetică prin introducerea Microsoft Security Copilot, bazat pe GPT-4.

În plus, instrumentele de chatbot IA pot sprijini răspunsurile la incidente. De exemplu, în cazul unui atac bot, ChatGPT și Google Bard pot furniza informații echipelor de securitate în timp real și pot ajuta la coordonarea activităților de răspuns. Tehnologia poate ajuta, de asemenea, la analiza datelor de atac, ajutând echipele de securitate să identifice sursa atacului și să ia măsuri adecvate pentru a limita și a atenua efectele.

Tot odată, organizațiile pot utiliza ChatGPT și alte modele generative de inteligență artificială pentru a analiza volume mari de date pentru a identifica tipare și anomalii care pot indica prezența roboților criminali. Analizând jurnalele de chat, datele din social media și alte surse de informații, instrumentele IA pot ajuta la detectarea și alertarea echipelor de securitate cu privire la potențiale atacuri bot înainte ca acestea să poată provoca daune semnificative.

Protecția în noua eră a inteligenței artificiale generative

Am intrat acum în era inteligenței artificiale generative și, ca urmare, organizațiile se confruntă cu atacuri cibernetice mai frecvente și mai sofisticate. Responsabilii CISO trebuie să accepte această nouă realitate și să valorifice puterea inteligenței artificiale pentru a lupta împotriva acestor atacuri cibernetice îmbunătățite de IA. Soluțiile de securitate cibernetică care nu reușesc să utilizeze învățarea automată în timp real sunt, în cele din urmă, condamnate să rămână în urmă.

De exemplu, știm că, ca urmare a AI generativă, organizațiile vor asista la o creștere a numărului de roboți răi care încearcă să le fraudeze site-urile. Într-o lume în care actorii răi folosesc bots-as-a-service pentru a crea amenințări complexe și invizibile, alegerea de a nu utiliza învățarea automată pentru a bloca aceste amenințări este ca și cum ai aduce un cuțit la un schimb de focuri. Prin urmare, acum, mai mult ca niciodată, instrumentele de detectare și blocare a boturilor cu inteligență artificială sunt imperative pentru securitatea cibernetică a organizațiilor.

Exemplu: CAPTCHA-urile tradiționale, considerate de mult timp un instrument de încredere în materie de securitate cibernetică, nu se potrivesc cu roboții de astăzi. În prezent, roboții folosesc inteligența artificială pentru a trece de CAPTCHA-urile "de modă veche" (cum ar fi imaginile cu semafoare), ceea ce determină necesitatea ca întreprinderile să treacă la soluții care provoacă mai întâi traficul, folosind CAPTCHA-urile ca ultimă soluție (și atunci, doar CAPTCHA-urile bogate în securitate cibernetică). În plus, organizațiile se pot proteja prin implementarea autentificării cu mai mulți factori și a controalelor de acces bazate pe identitate, care acordă utilizatorilor permisiunea de acces prin intermediul datelor lor biometrice, ceea ce va contribui la reducerea accesului neautorizat și a utilizării abuzive.

Inteligența artificială generativă prezintă riscuri de securitate semnificative pentru organizații, dar, dacă este utilizată corect, poate contribui, de asemenea, la atenuarea amenințărilor pe care le creează. Securitatea cibernetică este un joc de-a șoarecele și pisica, iar responsabilii CISO trebuie să fie cu un pas înainte pentru a-și proteja organizațiile de daunele financiare și reputaționale devastatoare care pot apărea ca parte a acestui nou peisaj al amenințărilor generate de AI. Înțelegând amenințările și utilizând tehnologia într-un mod eficient, CISO-urile își pot proteja organizațiile de atacurile nou apărute pe care le prezintă AI generativă.


Serverele VPS NSHOST sunt găzduite cu stocare NVMe. Pentru a lansa o nouă soluție, poți achiziționa domeniile preferate la cele mai convenabile prețuri folosind soluția rapidă de înregistrare domenii  și să investeștii într-un plan de găzduire securizat și optim - alegând o soluție de hosting NSHOST web shared, VPS sau Cloud. Recomandă atenție deosebită strategiei de caching potrivite afacerii tale pentru a asigura timpi optimi de încărcare a fiecărei pagini web.