რა არის და როგორ იცვლება Deepfake-ები - ინტერვიუ სემ გრეგორისთან
07.09.2021
დიპფეიკები ხელოვნური ინტელექტის გამოყენებით შექმნილი ვიდეო ან აუდიო მასალაა, რომელშიც ადამიანი აკეთებს და ამბობს იმას, რაც არასდროს გაუკეთებია და უთქვამს.

დღესდღეობით დიპფეიკებს დემოკრატიისთვის საფრთხედ და დეზინფორმაციის ერთ-ერთ ფორმად განიხილავენ, თუმცა ამ ტექნოლოგიას შექმოქმედებითი გამოყენებაც აქვს.

რამდენად რეალურია და რა საფრთხეებს ქმნის დიპფეიკები საზოგადოებაში? როგორ შეიძლება მასთან გამკლავება? ამ თემაზე ვიდეოსა და ტექნოლოგიის შესახებ ადამიანის უფლებათა ქსელის Witness-ის პროგრამის დირექტორი და დიპფეიკების ექსპერტი სემ გრეგორი გვესაუბრა.

როგორ შეიცვალა დიპფეიკები ბოლო წლებში პირველი თაობის დიპფეიკებისგან განსხვავებით?

ბოლო 4 წელია დიპფეიკები საზოგადოებისთვის შედარებით ახალი სფეროა და ის კომპიუტერულად გენერირებული გამოსახულებისა და ხელოვნური ინტელექტის Machine Learning (მექანიკური დასწავლა) ტექნოლოგიის განვითარებიდან მოდის. მარტივდება ელემენტარული დიპფეიკის შექმნა ისე, რომ გამოსახულების მანიპულაციის შესაძლებლობა ხელმისწავდომია Adobe-ის ფოტოშოპში და ზოგიერთ ონლაინ პლატფორმაზე. ისე გამარტივდა ეს მანიპულაციები, რომ მხოლოდ ერთი ფოტო გჭირდება, რომელსაც გაწვრთნილ სისტემაში მოათავსებ და მის მანიპულაციას შეძლებ.

რისი შექმნაც ჯერ ისევ რთულია, ძალიან მაღალი ხარისხის დიპფეიკებია. მაგალითისთვის შეგვიძლია ავიღოთ, სოციალურ ქსელში გავრცელებული ტომ კრუზის დიპფეიკ ვიდეოები. მსგავსი დიპფეიკების შექმნას კვლავაც სჭირდება მასში მონაწილე ადამიანის ბევრი ვიზუალური მონაცემი და დამატებით ეფექტები. საერთო ჯამში, მართალია დიპფეიკების შექმნა მარტივდება, მაგრამ ყველას არ შეუძლია სრულიად დამაჯერებელი დიპფეიკის შექმნა.

რა ძირითად საფრთხეებს ქმნის დიპფეიკები?

ამ თემაზე ჩვენს ორგანიზაციას გლობალური მასშტაბის კონსულტაციები ჰქონდა. გვინდოდა, რომ მხოლოდ შტატებში, სილიკონ ველის წარმომადგენლებთან არ გვესაუბრა, ამიტომ კონსულტაციები გვქონდა ევროპაში, აფრიკაში, ლათინო ამერიკასა და აზიაში. ძირითადად 5 საფრთხე გამოიკვეთა:

პირველი - ამბობდნენ, რომ დიპფეიკი ქალებზე თავდასხმისთვის გამოიყენება. რადგან ბევრ პოლიტიკოსს, აქტივისტსა და ჟურნალისტს თავს დაესხნენ მანიპულაციური გამოსახულებებით და ამ მომენტისთვის ეს ნომერ პირველი საფრთხეა, რაც დიპფეიკებთან დაკავშირებით გლობალურად არსებობს.

მეორე - დიპფეიკისგან გამოწვეული საფრთხე ძირს უთხრის რეალურ ვიდეომასალებს. ადამიანებს მაგალითად, პოლიტიკოსის მაკომპრომენტირებელ, პოლიციის მიერ ძალადობის ამსახველ ან მსგავს ვიდეოებზე შეუძლიათ თქვან, რომ ვიდეო დიპფეიკია, ან „ვერ დაამტკიცებ, რომ ეს რეალური მასალაა.“

მესამე - ჟურნალისტებს არ შეუძლიათ დიპფეიკების ამოცნობა და მასთან გამკლავება.

მეოთხე - დიპფეიკები უკავშირდება დეზინფორმაციის დღევანდელ პრობლემასაც. არსებობს ასეთი მოვლენა, რომელსაც შეგვიძლია ვუწოდოთ „ციფრული ხანძარი“, როდესაც კონტექსტიდან ამოვარდნილი ვიდეო სწრაფად ვრცელდება „ვოთსაფში“ და „ტელეგრამში“. ამ მხრივ დიპფეიკებიც მიიჩნევა საფრთხედ, რადგან ამ გზით ვიდეო სწრაფად ვრცელდება და რთულია მისი მხილება. ბოლო ერთი წელია გვესმის, რომ ხალხი დარდობს „ზუმის“ სივრცეზეც, რადგან არსებობს დიპფეიკ ტექნოლოგიები, რომლებსაც სახის მანიპულირება შეუძლიათ.

მეხუთე - საფრთხე კი, რომელიც მედიის მთელ ყურადღებას იპყრობს პოლიტიკური დიპფეიკებია. რა თქმა უნდა, მსოფლიოში ხალხი დარდობს ამაზე, მაგრამ როდესაც ესაუბრები ადამიანებს, რომლებსაც ემუქრებათ დღევანდელი დეზინფორმაცია, ისინი ნაკლებად ნერვიულობენ პოლიტიკურ დიპფეიკებზე, რადგან მთელი ყურადღება ისედაც ამაზეა. ეს ადამიანები რეალურად დარდობენ სხვა ადამიანებზე, რომლებიც ცდილობენ დაიცვან სიმართლე.

რა შეიძლება იყოს დიპფეიკების გამოყენების ყველაზე ცუდი სცენარი?

ერთი ასეთი სცენარი ეხება იმ მუდმივ განცხადებებს, რომ არ შეგვიძლია დავუჯეროთ იმას, რასაც ვხედავთ და რომ ყველაფერი სიცრუეა.

ჩვენ ჩავატარეთ შემთხვევის ანალიზი მიანმარში სამხედრო გადატრიალების შედეგად მოსული მთავრობის მიერ გავრცელებული ვიდეოს შესახებ, რომელშიც მაღალი რანგის პოლიტიკოსი კორუფციაში მონაწილეობას აღიარებდა და ამბობდა, რომ დანაშაულში ქვეყნის სხვა ლიდერებიც მონაწილეობდნენ. ვიდეოს გავრცელებისთანავე ხალხს ეგონა, რომ ეს დიპფეიკი იყო, პოლიტიკოსის სახე კი ხელოვნურად ჩასმული. უცნაურად ჟღერდა მისი ხმაც, მაგრამ მათ არ ჰქონდათ ინსტრუმენტები, რომლებითაც გაარკვევდნენ ვიდეო მართლაც იყო თუ არა დიპფეიკი.

ასეთი შემთხვევები დამაბნეველია.

მეორე მხრივ, ხშირად ვხედავთ, რომ ხელისუფლების წარმომადგენლები ცდილობენ ეჭვი შეგვატანინონ ავთენტური ვიდეომასალის რეალურობაშიც.

ეს ფენომენი „მატყუარას დივიდენდის“ (Liar’s Dividend) სახელითაა ცნობილი, რაც გულისხმობს “მატყუარების“ შესაძლებლობას განაცხადონ, რომ რეალური ვიდეომასალა ყალბია. რეალობის დამტკიცება უფრო რთულია, ვიდრე სიყალბედ გამოცხადება. ძალიან მარტივია იმის თქმა, რომ „ეს დიპფეიკია, დამიმტკიცე, რომ ასე არაა“. ჩვენ კი არ გვაქვს უნარები და ინსტრუმენტები, რომ ვებრძოლოთ ამ ე.წ „მატყუარას დივიდენდს“.

ეს არის ერთ-ერთი მიზეზი იმისა, თუ რატომ გვჭირდება ინვესტირება ჟურნალისტებისა და ფაქტჩეკერების მხარდაჭერაში, რათა ჰქოდეთ შესაძლებლობა და ინსტრუმენტები, რომლებითაც დიპფეიკებს ამოიცნობენ.

მეორეა ცუდი სცენარია თანხმობის გარეშე შექმნილი სექსუალური შინაარსის მასალები. ამ მომენტში ამ მასალების უმეტესობა კარგი ხარისხის არაა, მაგრამ მაინც ბოროტად გამოიყენება ქალების წინააღმდეგ. რა თქმა უნდა, არის სცენარებიც, როდესაც კონკრეტულ კრიტიკულ სიტუაციაში ვინმე შეიძლება ეცადოს ვიდეოთი ხალხი შეცდომაში შეიყვანოს, იქნება ეს პოლიტიკური სცენარი თუ სხვა, თუმცა ვფიქრობ, რომ უფრო ფართოდ გავრცელებული ეს ორია: „მატყუარას დივიდენდი“ და ქალების თანხმობის გარეშე შექმნილი სექსუალური შინაარსის ყალბი მასალები.

რა ზიანი შეიძლება მოუტანოს დიპფეიკებმა დემოკრატიასა და დიპლომატიურ ურთიერთობებს?

დიპფეიკების რისკია განსაკუთრებით იმ სივრცეში, რომელშიც დეზინფორმაცია, კონტექსტიდან ამოვარდნილი ფოტოები და პროპაგანდისტული მასალა ხშირად ვრცელდება, შესაძლოა ვნახოთ ბევრი დიპფეიკი, რომლებიც როგორც აუდიოზე, ისე ვიზუალზე იქნება დაფუძნებული და რომლებიც არსებული ეთნიკური კონფლიქტებისა თუ პოლიტიკური უთანხმოების გასამწვავებლადაა შექმნილი.

მეორე მხრივ, ყოველთვის ფრთხილად უნდა ვიყოთ არ შევქმნათ ათასობით განსხვავებული სცენარი. დიპფეიკებთან დაკავშირებული პრობლემის ნაწილია ისიც, რომ ათასობით განსხვავებულ საშიშროებას წარმოვიდგენთ.

ცხადია, არის პოტენციალი შექიმნას კარგად სტრუქტურირებული დიპფეიკი კონკრეტული სცენარისთვის, როდესაც ამას დიდ დროს დაუთმობ, თუმცა როგორც ვთქვი, კარგი ხარისხის დიპფეიკის შექმნა არც ისე მარტივია. დიპფეიკები შეიძლება შეიქმნას არჩევნების კონტექსტში ქალი პოლიტიკოსების წინააღმდეგ. ჩვენ გვინახავს ე.წ შელოუფეიკების - მარტივი, კონტექსტიდან ამოვარდნილი ან შენელებული ვიდეოების გამოყენებაც.

მუდმივად ისმის, რომ არ შეიძლება დანახულის დაჯერება, მაგრამ თუ დემოკრატიული საზოგადოება გვყავს გვჭირდება გარკვეული ნდობა ინფორმაციისადმი. შესაბამისად, დიპფეიკის შესახებ ბევრი საუბარი საზიანოცაა, რადგან ამბობს, რომ არაფერი უნდა დავიჯეროთ. როდესაც რეალურად ინფორმაციის 99% არ არის საზიანო და მავნებელი. ის უბრალოდ თავისუფლად მიმოქცევადი ინფორმაციის ეკოსისტემის ნაწილია.

არსებობს ტექნოლოგიური ინსტრუმენტი, რომლითაც შესაძლებელია დიპფეიკის ამოცნობა 100%-იანი სიზუსტით?

დიპფეიკის ამოცნობისთვის 100%-იანი სიზუსტის ინსტრუმენტი არ არსებობს. არის რამდენიმე ინსტრუმენტი, რომლებიც მუშაობს მხოლოდ კონკრეტული ტიპის დიპფეიკებზე, მაგალითად, „სახის გაცვლის“ დიპფეიკებზე და სხვა. ასევე არის ამომცნობი ტექნოლოგიები, რომლებიც შექმნილია კონკრეტული ადამიანების დიპფეიკებისთვის. მაგალითად, შეგიძლია ნახო ვიდეოში კონკრეტული პოლიტიკოსის საუბრისა და მოძრაობის მანერა რამდენად ემთხვევა მისთვის დამახასიათებელ მოძრაობებს. ასე, რომ არსებობს ამოცნობის ინსტრუმენტები, რომლებიც მუშაობს კონკრეტული ტიპის დიპფეიკებზე და ადამიანებზე, მაგრამ ისინიც არაა 100%-ით ზუსტი.

ტექნიკური გიგანტები მუშაობენ დიპფეიკის ამომცნობი პროგრამების შექმნაზე. ფიქრობთ, რომ შესაძლებელია 100%-იანი სიზუსტის მქონე ამომცნობი პროგრამის შექმნა?

არ მგონია, რომ როდესმე იარსებებს ინსტრუმენტი, რომელსაც დიპფეიკის 100%-იანი სიზუსტით ამოცნობა შეეძლება. ამის მიზეზი ნაწილობრივ ისიცაა, რომ დიპფეიკი იქმნება Machine Learning (მექანიკური დასწავლის) ტექნოლოგიით, რომელიც მუდმივად ვითარდება და როგორც კი ვინმე შექმნის კარგ ამომცნობ ინსტრუმენტს, სხვა ეცდება ისეთი დიპფეიკი შექმნას, რომ ეს ამომცნობი ინსტრუმენტი გააცუროს.

ამომცნობ ინსტრუმენტებს ყოველთვის ექნებათ ნაკლი, იმედი მაქვს ახლანდელი მონაცემებით, 65%-იანი და 80%-იანი სიზუსტე, უფრო გაიზრდება. თუმცა ყოველთვის იქნება ეს შეჯიბრება დიპფეიკებისა და ამომცნობი პროგრამების შექმნელებს შორის.

რა არის სხვა გამოსავალი იმ დეზინფორმაციულ დიპფეიკებთან საბრძოლველად?

რამდენიმე გამოსავალია: ერთია ტექნიკური, ამოცნობის პროგრამები, რომლებსაც აქვთ ნაკლი, მაგრამ მნიშვნელოვანია შეგვეძლოს ამოცნობის სისტემიდან სიგნალების გამოყენება მედიაწიგნიერებასთან ერთად. ეს სიგნალები მიგანიშნებს, რომ ეჭვი უნდა შეიტანო და დაიწყო სხვა გაშუქებისა თუ ორიგინალი ვიდეოს ძიება. ამომცნობ ინსტრუმენტზე უნდა ვიფიქროთ, როგორც სიგნალის მომცემზე, რომელსაც გავლენა ექნება მედიაწიგნიერებაზე და ფაქტების გადამოწმების უნარების გაუმჯობესებაზე.

ასევე უნდა ვიცოდეთ, რას მოველით სოციალური მედიის პლატფორმებისგან, რომლებსაც შეუძლიათ ამ ამომცნობი სისტემების გამოყენება, მაგრამ, რადგან ეს ინსტრუმენტები ზუსტ პასუხს კის ან არას არ იძლევა, ამ მიმართულებით უმეტეს შემთხვევებში არ გვინდა პლატფორმებმა ავტომატური გადაწყვეტილებები მიიღონ. მაგრამ სოციალურ მედიის პლატფორმებს შეუძლიათ მიგვანიშნონ და გვამცნონ შესაძლო მანიპულაციის ნიშნების შესახებ, რაც დაგვეხმარება გადაწყვეტილების მიღებაში.

რამდენადაა გამოსავალი დიპფეიკების რეგულირება იმ ქვეყნებში, სადაც მართლმსაჯულების სისტემას ნაკლები ნდობა აქვს, კრიტიკული მედია ცენზურასა და წნეხშია? 

რა თქმა უნდა არსებობს დიპფეიკის იდეისა და მის მიმართ შიშის ექსპლუატაცია „ფეიკ ნიუსის“ შესახებ ბოროტად გამოყენებული კანონებით. ძალიან ფრთხილად უნდა ვიყოთ დიპფეიკების შესახებ გადამეტებული კანონების მიმართ და მნიშვნელოვანია ქვეყნები არ იღებდნენ ისეთ კაბონებს, რომლებიც შესაძლოა თავისუფალი მედიის წინააღმდეგ იყოს გამოყენებული.

მაგალითად, ევროკავშირის კანონმდებლობის პროექტში არის კანონები ხელოვნური ინტელექტით შექმნილი კონტენტის მითითების აუცილებლობის შესახებ, რათა მომხმარებლებმა იცოდენ, რას ნახულობენ. ვფიქრობ, კანონი სასარგებლოა კონტენტის აღნიშვნის კუთხით, მაგრამ უნდა ვიფიქროთ, როგორ იმუშავებს ეს და როგორ შეუწყობს ხელს შემოქმედებითი მედიის ევოლუციას.

რა დადებითი მხარე აქვს დიპფეიკებს?

სინთეტიკური მედიის უმრავლესობა არ არის საზიანო. რა თქმა უნდა, არის რამდენიმე მიმართულება, რომლებსაც ბიზნესკომპანიები განიხილავენ. მაგალითად, ვიდეოს წარმოების გამარტივება. აქ არის შემოქმედებითი პოტენციალი, როგორც მომხმარებლების, ისე პროფესიონალებისთვის.

დიდი ძალაა იუმორსა და პაროდიაშიც. ერთ-ერთი ყველაზე ცნობილი დიპფეიკებია, რომლებშიც დასცინიან ძალაუფლების მქონეებს. თუმცა უნდა შეგვეძლოს გავარჩიოთ, რომ ეს ზოგჯერ აუდიტორიის მანიპულაციას ემსახურება. თითქოს გასართობადაა შექმნილი, თუმცა რეალურად იცი, რომ ვიღაცის საზიანოდაა გაკეთებული.

ასევე შესაძლებელია, ვიდეოს შექმნა ისე, რომ 50 სხვადასხვა ადამიანი საუბრობდეს 50 სხვადასხვა ენაზე, 50 მსახიობის დაქირავების გარეშე. ყოველკვირეულად შეიძლება დიპფეიკის შექმნა, რომელშიც ადამიანი მაგალთად, ქართულად, ინგლისურად, პორტუგალიურად ან სხვა ენებზე საუბრობს. ეს შეიძლება გახმოვანების დროსაც გამოიყენონ.

დიპფეიკების გამოყენების პოტენციალი ფარავს კომპიუტერული თამაშებისა და ვირტუალური რეალობის მზარდ ინდუსტრიას, რომლებიც ფაქტობრივად, მთლიანად სინთეტიკური სივრცეებია.

როგორ ხედავთ დიპფეიკების მომავალს?

ჩემი 5 წლიანი ხედვა დიპფეიკების შესახებ დაფუძნებულია იმაზე, თუ რას ვაკეთებთ ახლა. ჩვენ მივყვებით „მოემზადე, არ აჰყვე პანიკას“ პრაქტიკას, რაც ნიშნავს, ჟურნალისტური და ადამიანის უფლებების დაცვის ხედვის გათვალისწინებით ინვესტირებას ინსტრუმენტების დამზადებაში, რათა ჟურნალისტებსა და ფაქტჩეკერებს გამოუმუშავდეთ ამოცნობის უნარები.

მომავალში მეტი დიპფეიკი იქნება და მათ მეტად საზიანოდ გამოიყენებენ. იქნება მეტი შემოქმედებითად გამოყენებაც, მაგრამ ჩვენ ვიქნებით მომზადებულები. ადამიანებს, რომლებსაც ვენდობით ექნებათ შესაბამისი ინსტრუმენტები სიყალბის ამოსაცნობად. მივეჩვევით, დავიწყებთ ფიქრს, როგორ შევიტანოთ ეს ყველაფერი მედიაწიგნიერებაში.

ასე, რომ არ მაქვს აპოკალიფსური ხედვა, რომ „არ შეიძლება იმის დაჯერება, რასაც ვხედავთ“. მაგრამ ეს ყველაფერი დამოკიდებულია იმაზე, რას ვიზამთ ახლა. მთავარია, ვიმუშაოთ მედია ინსტრუმენტების შექმნასა და მედიაწიგნიერების განვითარებაზე.

დიპფეიკების შესახებ გაიგეთ მეტი ამ ბმულზე

ავტორი : ირმა კურტანიძე;
კომენტარი, რომელიც შეიცავს უხამსობას, დისკრედიტაციას, შეურაცხყოფას, ძალადობისკენ მოწოდებას, სიძულვილის ენას, კომერციული ხასიათის რეკლამას, წაიშლება საიტის ადმინისტრაციის მიერ

მსგავსი სტატიები

ასევე იხილეთ