Chat GPT, ეთიკური დილემები და გამოყენება მედიაში
14.02.2023
Chat GPT, ეთიკური დილემები და გამოყენება მედიაში

ბოლო თვეების განმავლობაში მედიაში უფრო და უფრო ხშირად ქვეყნდება ხელოვნური ინტელექტის, Chat GPT-ის მიერ გენერირებული ტექსტები.

დეტალური და სწრაფი პასუხებით და იმით, რომ სტატიების, მოთხრობების და ლექსების წერაც კი შეუძლია, Chat GPT-3-მა სწრაფად მიიპყრო მილიონობით ინტერნეტმომხმარებლის ყურადღება.

საქმე იქამდეც კი მივიდა, რომ ზოგმა სტუდენტმა ამ ხელოვნური ინტელექტის მიერ დაწერილი ტექსტებიც სამაგისტრო ბამოცდებიც კი ჩააბარა.

კომპანია OpenAI-მ Chat GPT-3 როგორც პროტოტიპი, საჯაროდ 30 ნოემბერს გაუშვა და დღს ის უკვე 29 მილიარდ დოლარადაა შეფასებული სიახლე

OpenAI-ს ტექნოლოგიური განვითარების ხელმძღვანელმა, მირა მურატიმ ისაუბრა Chat GPT-ის პოტენციალსა და მისგან მომავალ სავარაუდო საფრთხეებზე.

"უამრავი კითხვაა [ხელოვნური ინტელექტის] სოციალურ გავლენაზე, უამრავი ეთიკური და ფილოსოფიური კითხვაა, რომელიც უნდა გავითვალისწინოთ" - თქვა მან ჟურნალ "თაიმთან" ინტერვიუში - "პატარა ჯგუფი ვართ, გვჭირდება მეტი ჩართულობა არამარტო ტექნოლოგიური განვითარების კუთხით, არამედ რეგულატორების, სახელწმიფოების და ყველა მხრიდან.

ხელოვნური ინტელექტის ისტორია

ხელოვნური ინტელექტის იდეა, უფრო ზუსტად მცდელობა, რომ კომპიუტერს შეკითხვებზე პასუხი "ვასწავლოთ", უკვე დიდი ხანია, არსებობს.

მაგალითად, 1950 წელს, ინგლისელმა მათემატიკოსმა, ალან ტურინგმა, რომელიც მეორე მსოფლიო ომის დროს, გერმანული საიდუმლო კოდების გაშიფვრით არის ცნობილი, "იმიტაციის თამაში" გამოიგონა, რათა ხელოვნური ინტელექტის შესაძლებლობები გამოეცადა.

"იმიტაციის თამაშის", ასევე ცნობილი როგორც "ტურინგის ტესტის" მიზანი იყო, მიეღო კომპიუტერისგან პასუხები კითხვებზე ისე, როგორც ამას ადამიანი გააკეთებდა.

ტესტის ამოცანა არ ყოფილა, მიეღო სწორი პასუხები, ამოცანა იყო გაერკვია, შეეძლო თუ არა კომპიუტერს ადამიანის მიბაძვა - იმიტაცია.

მიუხედავად იმისა, რომ ეს ტესტი დღევანდელი გადმოსახედიდან ძალიან პრიმიტიულია, დღემდე ის ხელოვნური ინტელექტის შესაძლებლობების გაზომვის ერთ-ერთი მნიშვნელოვანი საზომია.

გასულ ზაფხულში ეს ტესტი Google-ის ხელოვნურმა იტნელექტმა, LaMDA-მ წარმატებით გაიარა, დეკემბერში კი - Chat GPT-მ.

თუმცა, ბევრი კრიტიკოსი დავობს, რომ თუ შემფასებლებს ხელოვნური ინტელექტის პასუხები ადამიანის პასუხები ეგონათ, უფრო იმის ბრალია, რომ ისინი მოტყუვდნენ და არა იმის, რომ პროგრამა ნამდვილად გონიერია.

რატომ არის თემა მნიშვნელოვანი?

"დიდ ძალას დიდი პასუხისმგებლობა მოაქვს", თუმცა ხელოვნური ინტელექტის ალგორითმები ჯერჯერობით დაურეგულირებელია, მიუხედავად მრავალი შეკითხვისა, რომლებიც ბოლო წლების განმავლობაში გროვდება.

როიტერის ინსტიტუტის მიერ 2023 წლის იანვარში გამოქვეყნებულ მედიაკვლევაში Chat GPT-ის შესაძლებლობები აღწერილია, როგორც "შესაშური, თუმცა საშიში".

"წლების განმავლობაში ჩატარებული დაკვირვება გვაძლევს საშუალებას, ვთქვათ, რომ ხალხი ტექნოლოგიას ყოველთვის არ იყენებს იმ დანიშნულებით, რითაც ის შეიქმნა" - წერს Datasociety.net-ის აღმასრულებელი ჟურნალისიტი, და აშშ-ის ეროვნული მრჩეველთა კომიტეტის წევრი ხელოვნური ინტელექტის საკითხებზე, ჯენეტ ჰეივენი Nieman Lab-ისთვის.

მეორე მხრივ, მედიას კიდევ უფრო დიდი გამოწვევები აქვს.

მაგალითად ის, რომ ერთ-ერთ ექსპერიმენტში Chat GPT-მ სტატიისთვის ციტატები გამოიგონა.

"სამწუხაროდ, თუ ხელოვნურ ინტელექტს გამოუცდელი ჟურნალისტი იყენებს, შესაძლოა, შესაძლოა, მან ზიანიც კი გამოიწვიოს" - ამბობს ციფრული კომუნიკაციების გერმანელი მკვლევარი ლენარტ ჰოფედიტზი მედიაჩეკერთან ინტერვიუში.

თუმცა, არის ოპტიმისტური მხარეც: კიდევ ერთ ტესტში, SkyNews-მა Chat GPT-ს ჰკითხა, სჭირდებათ თუ არა ჟურნალისტებს ადაპტაცია ხელოვნურ ინტელექტთნ.

"მნიშვნელოვანია, ჟურნალისტები იცნობდნენ Chat GPT-ის ტექნიკურ პოტენციალს, რათა იცოდნენ, როგორ გამოიყენონ ის მედია ინდუსტრიაში" - უპასუხა ხელოვნურმა ინტელექტმა - "თუმცა ადაპტაციაიზე მეტად მნიშნველოვანია, ჟურნალისტებმა იზრუნონ თავიანთ პროფესიულ განვითარებაზე და მუდმივად ჰქონდეთ ინფორმაცია ამ სფეროში სიახლეების შესახებ".

ავტორი : ონიკ ჯეიმს კრიკორიანი;
კომენტარი, რომელიც შეიცავს უხამსობას, დისკრედიტაციას, შეურაცხყოფას, ძალადობისკენ მოწოდებას, სიძულვილის ენას, კომერციული ხასიათის რეკლამას, წაიშლება საიტის ადმინისტრაციის მიერ

მსგავსი სტატიები

ასევე იხილეთ