Bota Postuar më 5 Maj 2023, 10:51

AI, një kërcënim 'bërthamor' për sigurinë kibernetike - Por a mund të përdoret gjithashtu për mbrojtje?

Nga SCAN TV
AI, një kërcënim 'bërthamor' për

Meqenëse shumë biznese hezitojnë të lejojnë punonjësit e sigurisë kibernetike të përdorin mjetet e AI në punën e tyre, nga frika se fusha është e parregulluar dhe ende e pazhvilluar, mendimtarët kryesorë nga industri të ndryshme kanë shkruar së fundmi një letër të hapur duke kërkuar ndalimin e eksperimenteve të AI më të avancuara se ChatGPT-4.

Disa madje thonë se letra nuk është e mjaftueshme dhe shoqëria nuk është e gatshme të trajtojë pasojat e AI. Për fat të keq, kutia e Pandorës tashmë është hapur dhe ata që pretendojnë se ne mund të kthejmë ndonjë nga këto risi gabohen. Nuk është as një shpikje e re: ne kemi ndërvepruar me modele të kufizuara prej vitesh. A mund të numëroni herët që keni përdorur chatbot të një faqe interneti, asistentin tuaj të smartfonit ose një pajisje në shtëpi si Alexa?

Inteligjenca artificiale ka depërtuar në jetën tonë ashtu si interneti, telefonat inteligjentë dhe cloud-i para tij. Frika është e justifikueshme, por kompanitë duhet të shqetësohen për kriminelët kibernetikë dhe avancimin dhe rritjen e sofistikimit të sulmeve të tyre.

Hakerët që përdorin ChatGPT janë më të shpejtë dhe më të sofistikuar se më parë, dhe analistët e sigurisë kibernetike që nuk kanë akses në mjete të ngjashme mund ta gjejnë veten shumë shpejt të mposhtur dhe të mundur nga këta sulmues të ndihmuar nga AI.

Ata po përdorin ChatGPT për të gjeneruar kode për email phishing, malware, mjete kriptimi dhe madje edhe për të krijuar tregje të errëta në ueb. Mundësitë e hakerëve për të përdorur AI janë të pafundme, dhe, si rezultat, shumë analistë po përdorin gjithashtu përdorimin e paautorizuar të sistemeve të AI vetëm për të kryer punën e tyre.

Sipas HelpNet Security, 96% e profesionistëve të sigurisë njohin dikë që përdor mjete të paautorizuara brenda organizatës së tyre dhe 80% pranuan se përdorin vetë mjete të ndaluara. Kjo dëshmon se AI është tashmë një aset i përdorur gjerësisht në industrinë e sigurisë kibernetike, kryesisht për shkak të nevojës. Pjesëmarrësit e anketës madje thanë se "ata do të zgjidhnin mjete të paautorizuara për shkak të ndërfaqes më të mirë të përdoruesit (47%), aftësive më të specializuara (46%) dhe do të lejonin punë më efikase (44%).

Korporatat po pengohen të kuptojnë qeverisjen rreth AI, por ndërkohë që ata e bëjnë këtë, punonjësit e tyre qartësisht po sfidojnë rregullat dhe ndoshta rrezikojnë operacionet e kompanisë. Sipas një studimi të Cyberhaven me 1.6 milionë punëtorë, 3.1% futin informacione konfidenciale të kompanisë në ChatGPT. Edhe pse numri duket i vogël, 11% e pyetjeve të përdoruesve përfshijnë informacione private. Kjo mund të përfshijë emrat, numrat e sigurimeve shoqërore, skedarët e brendshëm të kompanisë dhe informacione të tjera konfidenciale.

ChatGPT mëson nga çdo bisedë që ka me përdoruesit e tij dhe mund të rikthejë informacionin e përdoruesit nëse hetohet saktë. Kjo është një e metë fatale për përdorimin e korporatave duke marrë parasysh se si hakerat mund të manipulojnë sistemin për t'u dhënë atyre informacione të fshehura më parë. Më e rëndësishmja, AI do të njohë gjithashtu mekanizmat e sigurisë që kompania ka kur inkorporohet në një server të korporatës. I armatosur me atë informacion, një sulmues mund të merrte dhe shpërndante me sukses informacion konfidencial.

Qoftë cloud apo internet, integrimi i teknologjive të reja ka shkaktuar gjithmonë polemika dhe hezitim. Por ndalimi i inovacionit është i pamundur kur kriminelët kanë fituar akses në mjete të avancuara që praktikisht bëjnë punën për ta. Për të adresuar saktë këtë çështje rreth sigurisë së shoqërisë sonë, kompanitë duhet të zbatojnë rregullat e mëparshme të qeverisjes për AI.

Ripërdorimi i procedurave të provuara historikisht do t'i lejonte kompanitë të kapin hapin me sulmuesit e tyre dhe të eliminojnë çekuilibrin e energjisë.Rregullimi i thjeshtë midis profesionistëve të sigurisë kibernetike do t'i lejonte kompanitë të mbikëqyrin se çfarë mjetesh përdorin punonjësit, kur po i përdorin ato dhe çfarë informacioni po futet. Kontratat midis ofruesve të teknologjisë dhe organizatave janë gjithashtu të zakonshme për përdorimin e cloud të korporatave dhe mund të aplikohen në sferën e mjegullt të AI.

Ne e kemi kaluar pikën pa kthim dhe adoptimi kritik është zgjidhja jonë e vetme për të jetuar në një botë të drejtuar nga AI. Inovacioni i shtuar, rritja e aksesit publik dhe lehtësia e përdorimit u kanë dhënë kriminelëve kibernetikë përparësinë që është e vështirë për t'u kthyer. Për t'i kthyer gjërat, kompanitë duhet të përqafojnë AI në një mjedis të sigurt dhe të kontrolluar. Teknologjia e avancuar është pothuajse e pakontrollueshme dhe analistët e sigurisë kibernetike duhet të mësojnë se si mund të përdoret me përgjegjësi.

Trajnimi i punonjësve dhe zhvillimi i mjeteve të ndërmarrjes do të forconte procedurat e sigurisë kibernetike derisa një gjigant i industrisë si Microsoft të përdorë mjetet si "Security Copilot" për analizën e sigurisë të shpallur së fundmi për të transformuar industrinë. Ndërkohë, kompanitë duhet të ndalojnë së zhyturi kokën në rërë, duke shpresuar që realiteti të ndryshojë. Gjërat do të bëhen më distopike nëse organizatat vazhdojnë të injorojnë problemet e shfrenuara në vend që të merren me botën e pakëndshme që kemi krijuar.

Edel Strazimiri / SCAN

Sondazh

Poll

Live TV

Të fundit
Të gjitha lajmet

Më të vizituarat