დამატებულია კალათაში მარაგში არ არი საკმარისი რაოდენობა დამატებულია სურვილების სიაში უკვე დამატებულია სურვილების სიაში
ხელოვნური ინტელექტი, ხმის გაყალბების გზით თაღლითებს $2,6 მილიარდის მოპარვაში დაეხმარა

ხელოვნური ინტელექტი, ხმის გაყალბების გზით თაღლითებს $2,6 მილიარდის მოპარვაში დაეხმარა

2023-05-09 18:00:25

დაცვის სისტემებისა და ანალიზის ამერიკულმა კომპანია McAfee-მ გამოიკვლია, რომ ხელოვნური ინტელექტის (AI) დახმარებით კიბერ თავდამსხმელები მიზანს შემთხვევების 77%-ში აღწევენ.

ირკვევა, რომ ხმის კლონირება რჩება თაღლითობის ყველაზე პოპულარულ მეთოდად.

ექსპერტები აღნიშნავენ, რომ აშშ-ში მომხმარებელთა 32%-ს მსგავსი ტიპის თაღლითობას წააწყდა.

თავის მხრივ, ინდოეთში, რესპონდენტთა 47%-ზე მეტმა თქვა, რომ ისინი ან მათი ნაცნობები მონაწილეობდნენ თაღლითობაში.

McAfee-ის ანალიტიკა აჩვენებს, რომ ხელოვნური ინტელექტის დახმარებით ხმოვანი თაღლითობის მსხვერპლთა 77% კარგავს ფულს შემდეგი პროპორციებით:

გამოკითხულთა მესამედზე მეტმა დაკარგა $1000-ზე მეტი;

7%-ი მოატყუეს და $5000-დან $15000-მდე თანხა დაკარგეს (ძირითადად აშშ-ში);

ზოგადად, 2022 წელს ხმის ყალბმა ტექნოლოგიამ თაღლითებს 2,6 მილიარდი დოლარის მოპარვის საშუალება მისცა.

საინტერესოა, რომ ხმის კლონირების ხელსაწყოები საჯაროდ ხელმისაწვდომი 2016 წელს გახდა.

საწყისი წერტილი არის ის მომენტი, როდესაც Adobe-მ შემოიტანა "Photoshop აუდიოსთვის" - Project VoCo. პროგრამა საშუალებას გაძლევთ დაამატოთ სიტყვები სხვისი საუბრის აუდიო ჩანაწერში, რომლებიც ორიგინალში არ იყო.

ბრიტანული საინფორმაციო უსაფრთხოების კომპანია Pindrop-ის ინფორმაციით, 2013-2017 წლებში ასეთი თაღლითობების რაოდენობა 350%-ით გაიზარდა.

2019 წელს კი ცნობილი გახდა იმ შემთხვევის შესახებ, როდესაც კრიმინალებმა ხმის გაყალბების ტექნოლოგია გამოიყენეს 243 000 დოლარის მოსაპარად.

McAfee ხაზს უსვამს, რომ AI ხმის კლონირება არის "მოტყუების თაღლითობის" ვარიანტი - მეთოდი, როდესაც თავდამსხმელი იყენებს საყვარელი ადამიანის ან პოტენციური მსხვერპლის საყვარელი ადამიანის ხმას და ითხოვს ფულს სავარაუდო გადაუდებელი დახმარებისთვის.

ანალიტიკოსები გვაფრთხილებენ, რომ AI ინსტრუმენტები შედარებით იაფი და ხელმისაწვდომი გახდა და კიბერთავდამსხმელებს შეუძლიათ სწრაფად და მარტივად შექმნან ხმოვანი კლონები.

ეს ჩვეულებრივ პრობლემას არ წარმოადგენს, რადგან სოციალური მედიის აქტიურ მომხმარებლებს შეუძლიათ ატვირთონ აუდიო ან ვიდეო, სადაც ისინი საუბრობენ ან კომენტარს აკეთებენ გარკვეულ სიტუაციაზე.

McAfee-ს კვლევამ დაადგინა, რომ ხმის კლონირების ხელსაწყოები უზრუნველყოფს 95%-იან სიზუსტეს.

ავტორი:

გიგი ნოზაძე
ავტორის ყველა სიახლე

უახლესი

14 საათის წინ

მოსაზრება


მსგავსი სიახლეები