დამატებულია კალათაში მარაგში არ არი საკმარისი რაოდენობა დამატებულია სურვილების სიაში უკვე დამატებულია სურვილების სიაში
კიბერუსაფრთხოება ხელოვნური ინტელექტის ეპოქაში

კიბერუსაფრთხოება ხელოვნური ინტელექტის ეპოქაში

2024-03-11 13:28:00

ჩვენ დღეს ვცხოვრობთ ისეთ ეპოქაში, სადაც ფაქტობრივად ყოველკვირეულად თუ არა ყოველთვიურად მაინც ვართ ახალი ტექნოლოგიური განვითარების თუ აღმოჩენის მომსწრენი: იქნება ეს ახალი ვირტუალური ხელსაწყო, აპლიკაცია თუ პროგრამული უზრუნველყოფა, რომელიც კიდევ უფრო გვაკავშირებს ერთმანეთთან ადამიანებს და მოწყობილობებს და მათზე დამოკიდებულებსაც კი გვხდის.

ტექნოლოგიურ განვითარებაში ერთერთ დამაინტრიგებელ ევოლუციურ მოვლენად შესაძლოა იყოს ხელოვნური ინტელექტის განვითარება და მისი ათვისება სხვადასხვა მიზნებისთვის. განსაკუთრებით ბოლო რამდენიმე თვის მანძილზე ხელოვნური ინტელექტის ირგვლივ გაჩენილი აჟიოტაჟი ტოვებს შთაბეჭდილებას, თითქოს ხელოვნური ინტელექტი სიახლეა, თუმცა ბევრი კომპანიისთვის, მათ შორის საქრთველოში, ხელოვნური ინტელექტი უკვე ნაცნობი და აქტიურად გამოყენებადი ტექნოლოგიაა, მათ შორის ის ჩვენც გამოგვიყენებია: თუ მანქანაში GPS სისტემა გამოგიყენებიათ ნავიგაციისთვის, ტექსტის WORD-ში აკრეფისას ან ელ-შეტყობინების წერისას გრამატიკული შეცდომების ავტომატური ჩასწორების ფუნქციას ეყრდნობით ან თუნდაც ონლაინ ინფორმაციის მოძიებას ახორციელებთ, დიდი ალბათობით თქვენ გამოგიცდიათ ხელოვნური ინტელექტის მუშაობა.

ხელოვნური ინტელექტის სულ უფრო ფართოდ გამოყენების ტენდეცია შეიმჩნევა (ChatGPT უკვე კონკრეტული თემის თუ სამოტივაციო წერილის დასაწერად იყენებს ბევრი და არა მხოლოდ) და მნიშნველოვანია, ორგანიზაციებს ნათელი წარმოდგენა ჰქონდეთ როგორც ხელოვნური ინტელექტის სიკეთეზე, ასევე მასთან და მის გამოყენებასთან დაკავშირებულ რისკებზე. განსაკუტრებით აქტუალურია აღნიშნული საკითხი კიბერსაფრთხეების ზრდასთან მიმართებით.
 

ხელოვნური ინტელექტი და მანქანური სწავლების გამოყენება ხდება სხვადასხვა ტექნოლოგიური მწარმოებლების მიერ, ბევრი ვირტუალური მოწყობილობის ფუნქციონირების გასაუმჯობესებლად (იმისათვის, რომ კიბერშეტევის უკეთესი და უფრო ეფექტური იდენტიფიცირება მოხდეს ადრეულ ეტაპზე, მავნე კოდის შემცველი შეტყობინების იდენტიფიცირება და გაუვნებელყოფა, ქსელში ინციდენტის ინდენტიფიცირება და ა.შ.). თუმცა, ამავე დროს ხელოვნური ინტელექტი და ეს ტექნოლოგია ხელმისაწვდომია ასევე მავნე აქტორებისთვის/ბოროტმოქმედთათვის.
საბანკო ასოციაცია მუდმივად საუბრობს ძირითად კიბერსაფთხეებზე და შეგვიძლია ვთქვათ, რომ მაყურებელს მეტნაკლებად მეტი წარმატებით შეუძლია ფიშინგ შეტყობინების გარჩევა. თუმცა, ხელოვნური ინტელექტის გამოყენებით კიბერთაღლითებს (ჰაკერებს) დღეს შეუძლიათ გაცილებით დიდი რაოდენის ფიშინგ შეტყობინებების გენერაცია და ბევრად მაღალი ხარისხის, ლეგიტიმურ კონტექსტთან მაქსიმალურად მიახლოვებულის. ასევე, მათ შეუძლიათ ახალი მავნე კოდის შექმნა გაცილებით ნაკლებ დროში და გაცილებით დიდ მასშთაბზე გავრცელება, მათ შორის ფიშინგის გამოყენებით.  შედეგად, ზიანის დიაპაზონი და მასშტაბი გაცილებით დიდია, ვიდრე კონვენციური მეთოდებით აქამდე შექმნილი ფიშინგ შეტევები. უარყოფითი და ხშირ შემთხვევაში ორგანიზაციის ფუნქციონირებისთვის სავალალო შედეგის ალბათობაც გაცილებით მაღალია, ვიდრე აქამდე.

უფრო დეტალურად, როგორ შეიძლება გამოიყენონ კიბერთაღლითებმა ხელოვნური ინტელექტის შესაძლებლობები:

1. სოციალური ინჟინერიის სხვადასხვ სქემები:  მოიცავს ადამიანის ფსიქოლოგიურ მანიპულაციას სენსიტიური ინფორმაციის გამოსაძალად ან სხვა უსაფრთხოებასთან დაკავშირებული შეცდომის დაშვებისკენ უბიძგებს (ფიშინგი, ბიზნეს მეილის კომპორმეტირება და ა.შ.) ბევრი მსგავსი პროცესების ავტომატიზაციას ახდენენ მეტად რეალისტური სცენარების შექმნით და შეტევების წამებში განხორციელებით გაცილებით მასშტაბურ წარმატებას აღწევენ.

2. პაროლების ადვილად გამოცნობა: ხელოვნური ინტელექტის გამოყენებით კიბერთაღლითებს შეუძლიათ პაროლების ამომცნობი ალგორითმების გაუმჯობესება, რაც ანგარიშზე წვდომას გაცილებით ნაკლებ დროში შესაძლებელს ხდის, აქედან გამომდინარე ნეგატიური შედეგებით (დამახსოვრებული სენსიტიური ინფო).

3. Deepfakes: ვიზუალური და აუდიო კონტენტის მანიპულირება ხდება ხელოვნური ინტელექტის გამოყენების მეშვეობით იმგვარად, რომ ის მაქსიმალურად ლეგიტიმურად ჟღერს თუ გამოიყურება და ამგვარი კონტექნტი გავრცელება წამებშია შესაძლებელი სოციალური მედიის პლატფორმებზე. ხოლო ამ პლატფორმების მასშტაბის გათვალისწინებით ასიათასობით და მილიონობით ადამიანამდე აღწევს წამებში, შედეგად ქმნის სტრესს, შფოთვას და საბოლოო ჯამში სამწუხაროდ დამაჯერებლობის ხარისხის გათვალისწინებით ბევრ ადამიანს გარკვეულ აზრსაც უყალიბებს, რომლის რევერსი საკმაოდ რთულია. ეს ე.წ. deepfake-ები გამოიყენება მათ შორის სოციალური ინჟინერიის სცენარებთან ერთად, თანხის გამოსაძალად და სხვა მართლსაწინააღმდეგო და მავნე ქმედებებთან ერთად.

4. მონაცემების დამახინჯება: კიბერთაღლითებ შეუძლიათ ხელოვნური ინტელექტის ალგორიტმის მიერ გამოყენებული „სასწავლი მონაცემების“ დამახინჯება იმისათვის, რომ მოახდინონ ზეგავლენა გადაწყვეტილებაზე, რომელსაც იღებს ხელოვნური ინტელექტი/მანქანა. სხვა სიტყვებით, ხელოვნური ინტელექტის ალგორითმს აწვდიან მცდარ ინფორმაცია, შედეგად კი ქვევრს რასაც ჩასძახებ, იმას ამოგძახებს (bad input leads to bad output).  ვინაიდან მონაცემების ამგვარი დამახინჯების იდენტიფიცირება საკმაოდ რთულია და დიდ დროს მოითხოვს, ამ მოცემულობით (დამახინჯებული მოანცემები) გამოწვეული ზიანი შესაძლოა იყოს კრიტიკულად დამაზიანებელი.

როგორ გავაუმჯობესოთ კიბერუსაფრთხოება ხელოვნური ინტელექტის მძვინვარების დროში?  
 

🔑 პირველ რიგში საფრთხის იდენტიფიცირებისა და მასზე რეაგირების ავტომატიზაცია ხელოვნურ ინტელექტზე დაფუძნებული გადაწყვეტილებების დანერგვით;

🔑 დიდი ყურადღება მივაქციოთ მონაცემთა უსაფრთხოების უზრუნველყოფას: მასზე წვდომის მკაცრი კონტროლი და ძლიერი შიფრაციის ტექნოლოგიების გამოყენება;

🔑 თანამშრომელთა მუდმივი განათლება: კიბერუსაფრთხოების საკითხებში ცნობიერების ამაღლების ტრენინგები გადამწვეტია ადამიანის მიერ გამოწვეული შეცდომების თავიდან აცილებისთვის და უსაფრთხოების კულტურის შესაქმნელად;

🔑 ფხიზლად ყოფნა (Agile მიდგომა):  კიბერუსაფრთხოების სტრატეგია განაახლეთ უახლესი ტენდენციებისა და ტექნოლოგიების გათვალისწინებით, ახალ საფრთხეებთან უკეთ გასამკლავებლად.

უახლესი

მოსაზრება


მსგავსი სიახლეები