DOLAR
42,4439
EURO
49,0170
ALTIN
5.555,93
BIST
10.979,73
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
Ankara
Çok Bulutlu
18°C
Ankara
18°C
Çok Bulutlu
Cumartesi Az Bulutlu
21°C
Pazar Çok Bulutlu
21°C
Pazartesi Yağmurlu
11°C
Salı Az Bulutlu
12°C

Yapay zeka yoldan çıkarsa ne olur?

Yapay zeka fizikî ziyan verme ve gerçek dünyayı etkileme yeteneğini kazanmaya başladıkça sorulması gereken sorular artıyor

Yapay zeka yoldan çıkarsa ne olur?
24.05.2024 12:24
4
A+
A-

Yapay zekanın (AI) okul ödevleri için kolay sohbet sorularını yanıtlamasını, New York metrosundaki silahları tespit etmeye çalışmasını gördük; haberdar olduk.

Şimdi ise deepfake ile çocuk cinsel istismar içeriği oluşturmak için kullanan bir hatalının mahkumiyetinde cürüm ortağı olarak görülmesine şahit olduk.  Dijital güvenlik şirketi ESET, yapay zeka ilerlemeye devam ederken yanlış tarafa gitmesini önlemek için yapılan çalışmaları inceledi, dikkat edilmesi gerekenleri paylaştı. 

ESET, yapay zekayı güvenlik bağlamında yıllardır kullanıyor. Kısmen kritik şeyleri yanlış anladığı için yapay zekanın sihirli bir değnek olmadığı konusunda ihtarlarını paylaşmıştı.  Bununla birlikte “sadece orta sıra” kritik şeyleri yanlış yapan güvenlik yazılımları, güvenlik takımlarının gereksiz yere çabalamasını tetikleyen devasa yanlış olumlular yayarak ya da yapay zekanın aslında bildiği makus gayeli yazılımlardan “yeterince farklı” görünen makûs hedefli bir saldırıyı gözden kaçırarak epeyce olumsuz bir tesire sahip olacaktır. Bu nedenle denetim ve istikrar sağlamak için ESET yapay zekayı bir dizi diğer teknolojiyle katmanlandırıyor. Bu biçimde şayet yapay zekanın karşılığı dijital halüsinasyona benziyorsa onu başka teknoloji yığınıyla birlikte geri çekebiliyor.

Düşmanlar çok fazla saf AI saldırısı başlatmamış olsa da bilhassa kimlik avı ve artık de toplumsal mühendislik gayretlerini muhteşem boyuta taşımak için kimlik avından ses ve imaj klonlamada daha tesirli olmak ismine hücum zincirindeki ilişkileri otomatikleştiren düşmanca AI’yi akla getirmek gerekir. Berbat aktörler dijital olarak itimat kazanıp yapay zeka tarafından oluşturulan bilgileri kullanarak sistemleri kimlik doğrulaması yapmaları için kandırabilirse bu, kuruluşunuza girmek ve özel istismar araçlarını manuel olarak başlatmak için kafidir. Bunu durdurmak için satıcılar çok faktörlü kimlik doğrulama katmanını kullanabilir. Böylelikle saldırganların yalnızca bir ses yahut parola yerine birden fazla kimlik doğrulama formülüne muhtaçlığı olur. Bu teknoloji şu anda yaygın olarak kullanılıyor olsa da kullanıcılar tarafından gereğince tercih edilmiyor. Bu, kullanıcıların kendilerini ağır bir yük yahut büyük bir bütçe olmadan koruyabilmelerinin kolay bir yoludur.

Bütün hata yapay zekanın mı?

Yapay zeka mı yanılgılı? AI’nin yanlış anlamasının münasebeti sorulduğunda beşerler esprili bir formda “karmaşık” karşılığını veriyordu. Fakat AI fizikî ziyan verme ve gerçek dünyayı etkileme yeteneğine yaklaştıkça bu artık tatmin edici ve kâfi bir karşılık olmamaya başladı. Örneğin, AI dayanaklı şoförsüz bir otomobil kaza yaparsa “sürücü” mü ceza alır yoksa üretici mi? Bu, ne kadar karmaşık ve anlaşılmaz olursa olsun bir mahkemeyi tatmin edecek bir açıklama değil.

Peki ya kapalılık? GDPR kurallarının, mahremiyet merceğinden bakıldığında teknolojinin vahşileşmesini engellediğini gördük. Elbette AI’den türetilmiş, dilimlenmiş ve doğranmış özgün yapıtların çıkar için türevler üretmesi mahremiyet ruhuna karşıttır ve bu nedenle hami maddeleri tetikleyecektir. Lakin AI’nin türev olarak kabul edilmesi için tam olarak ne kadarını kopyalaması gerekir ve mevzuatı atlatacak kadar kopyalarsa ne olur? Ayrıyeten yasal olarak daha âlâ test edilmesi yıllar alacak yetersiz içtihat hukuku ile bunu mahkemede kim, nasıl kanıtlayacak? Gazete yayıncılarının Microsoft ve OpenAI’ye, makalelerin yüksek teknolojiyle kaynak gösterilmeden tekrar üretildiğini düşündükleri için dava açtıklarını görüyoruz; davanın sonucu merak konusu, tahminen de gelecekteki yasal süreçlerin bir habercisi olacak. 

AI bir araç ve çoklukla düzgün bir araç lakin büyük güç büyük sorumluluk getirir. Şu anda AI sağlayıcılarının sorumluluğu, yeni bulduğumuz gücün berbata gitmesi durumunda olabileceklerin çok gerisinde kalıyor.

Kaynak: (BYZHA) Beyaz Haber Ajansı

gömlek