OpenAI-მ დაბლოკა AI-ს ბოროტად გამოყენების მცდელობები

OpenAI-მ, კერძოდ კი მისმა აღმასრულებელმა დირექტორმა, სემ ალტმანმა, სულ ცოტა ხნის წინ, შემაშფოთებელი განცხადება გააკეთა.

მისი თქმით, OpenAI-ს მოუწია ჩაეშალა ხუთი ფარული გავლენის ოპერაცია, რომელთა მიზანიც ხელოვნური ინტელექტის მოდელების ბოროტად გამოყენება იყო.

საუბარია OpenAI-ს ხელსაწყოების ინტერნეტში „მოტყუებითი აქტივობებისთვის“ მომხმარებასა და ამ გზით, არასანდო ქმედებების განხორციელებაზე.

ალტმანი დეტალებსაც უღრმავდება და ამბობს, რომ OpenAI-ს მოდელების გამოყენება, როგორც მოკლე კომენტარების, ასევე მრავალ ენაზე თარგმნილი გრძელი სტატიების გენერირებისთვის მოხდა.

ბოლო სამი თვის განმავლობაში, ხელოვნური ინტელექტის მეშვეობით, შეადგინეს უამრავი ფეიქ სახელი და ბიოგრაფია სოციალური მედიის ანგარიშებისთვის.

აღნიშნული ბოროტი კამპანიები, რუსეთიდან, ჩინეთიდან, ირანიდან და ისრაელიდან ხორციელდებოდა.

ისინი ფოკუსირებული იყო ისეთ საკითხებზე, როგორებიცაა რუსეთის უკრაინაში შეჭრა, კონფლიქტი ღაზაში, ინდოეთის არჩევნები, პოლიტიკა ევროპასა და შეერთებულ შტატებში და სხვა.

„ეს იყო საზოგადოებრივ აზრზე მანიპულირების და პოლიტიკურ შედეგებზე ზემოქმედების აშკარა მცდელობა“ – ნათქვამია OpenAI-ს განცხადებაში.

ეს აღმოჩენა ხდება მზარდი შეშფოთების მიზეზი, რომ AI ტექნოლოგია პოტენციურად შეიძლება ბოროტად იყოს გამოყენებული სამომავლოდაც.

მოგეხსენებათ, რომ ხელოვნური ინტელექტის ხელსაწყოებს აქვს უნარი შექმნას ადამიანის მიერ შექმნილი ტექსტის მსგავსი კონტენტი, სურათები და ვიდეო მასალაც კი.

OpenAI-ს მხარს უჭერს ტექნიკური გიგანტი Microsoft, რომელთან ერთადაც კომპანიამ უსწრაფესად დააანონსა უსაფრთხოებისა და დაცვის სპეციალური კომიტეტის ჩამოყალიბება. კ

ომიტეტი OpenAI-ს შემდეგი თაობის მოდელების ტრენინგს გაუწევს ზედამხედველობას და მას საბჭოს წევრები უხელმძღანელებენ, მათ შორის, OpenAI-ს აღმასრულებელი დირექტორი, სემ ალტამანი.

ბოლო სამი თვის განმავლობაში, ბოროტი კამპანიები იყენებდნენ, როგორც AI გენერირებულ კონტენტს, ასევე ადამიანის შექმნილ ტექსტებსა და ინტერნეტიდან კომპირებულ მიმებს კომბინაციაში.

საბედნიეროდ, OpenAI-მ დაადასტურა, რომ მყისიერად გადადგმულმა ნაბიჯებმა შედეგი გამოიღო და დროულად შეფერხებულმა ბოროტმა კამპანიებმა, დასახულ მიზანს ვერ მიაღწია.

ხელოვნური ინტელექტის ბოროტად გამოყენების მცდელობების შესახებ ისაუბრა Facebook-ისა და Instagram-ის მშობელმა კომპანიამ, Meta Platforms-მაც.

რამდენიმე დღის წინ გამოქვეყნებულ უსაფრთხოების კვარტალურ ანგარიშში, Meta-მ გამოავლინა “სავარაუდოდ ხელოვნური ინტელექტის გამომუშავებული” კონტენტის იდენტიფიკაცია, რომელიც მოტყუებით გამოიყენებოდა მის პლატფორმებზე.

კონტენტი მოიცავდა კომენტარებს, ღაზა-ისრაელის კონფლიქტთან დაკავშირებით და ისინი სტრატეგიულად იყო განთავსებული ცნობილი საინფორმაციო საშუალებებისა და ამერიკელი კანონმდებლების პოსტების ქვეშ.

ამ ეტაპზე, OpenAI-მ დაბლოკა AI-ს ბოროტად გამოყენების მცდელობები, თუმცა რა იქნება მომავალში გადაჭრით ვერავინ იტყვის.

იმედი ვიქონიოთ, რომ ტექნოლოგიური გიგანტი იპოვის ექფეტურ გზებს და მოახერხებს ადამიანების გადარჩენას დეზინფორმაციისგან და ბოროტი გავლენებისგან.

 

ყველა ბლოგი