Dünya

Kendini Google'da aratan kadın yapay zeka ile üretilmiş porno görüntülerini buldu

Abone Ol

Yapay zeka sanat ve yaratıcılık için olduğu kadar kötü amaçlar için de kullanılabiliyor. Sanal ortamda bir kıyafet satın almak için sanki o kıyafeti gerçekten üstünüzdeymiş gibi gösterebilen yazılımlar masum bir amaca hizmet ediyor olsa da bunun bir sonraki aşamasında yüzünüzün ve bedeninizin, izniniz olmadan farklı görseller ve görüntüler yaratmak için kullanılması söz konusu. Endişe edilen kullanım alanlarının başında da 'rıza dışı deepfake pornografi' geliyor. 'Derin sahtecilik' anlamına gelen 'deepfake' bir şeyin gerçeğinden ayırt edilemeyecek kadar üst düzeyde taklit edilmesi olarak tanımlanıyor. Bu şekilde dijital olarak oluşturulmuş, yapay zeka veya makine öğrenimi ile değiştirilmiş çok sayıda videolar ve resimler mevcut. Teknoloji kullanılarak yaratılan bu tür porno akımı, birkaç yıl önce bir Reddit kullanıcısının kadın ünlülerin yüzlerini porno oyuncularının vücutlarına yerleştiren klipler paylaşmasıyla internette yayılmaya başladı. O zamandan beri, deepfake içerik oluşturucuları herkese açık bir profile sahip insanları hedef alan benzer videolar ve resimler yayınlamaya başladı. Çok sayıda web sitesinde bu şekilde binlerce video var. Bazıları, kullanıcılara kendi görüntülerini yaratma fırsatı sunuyor ancak bu şekilde rızası olmadan istenilen kişiyi cinsel fantezilere dönüştürmek veya teknolojiyi eski partnerlere zarar vermek için, intikam almak için kullananlar da çıkıyor. Uzmanlar, bu sorunun karmaşık ve görsel olarak ikna edici deepfakeler yapmak kolaylaştıkça büyüdüğünü söylüyor. Teknoloji destekli kötüye kullanım konusunda eğitimler veren bir grup olan EndTAB'ın kurucusu Adam Dodge,  AP'ye yaptığı açıklamada, "Gerçek şu ki, teknoloji gelişmeye ve demokratize olmaya devam edecek ve herşey bir düğmeye basmak kadar kolay hale gelecek. Bu olduğunda bazı insanlar şüphesiz bu teknolojiyi cinsel şiddet, deepfake pornografi ve sahte çıplak görüntüler yoluyla başkalarına zarar vermek için kötüye kullanmaya başlayacaklar." diyor. Avustralya'nın Perth bölgesinden Noelle Martin bu durumu yaşayanlardan biri. 28 yaşındaki genç kadın bir gün Google'da resmini ararken kendisine ait deepfake porno görselleri buldu. Martin bu sahte görüntüleri veya videoları kimin oluşturduğunu bilmediğini söylüyor. Birinin muhtemelen sosyal medya sayfasında veya başka bir yerden görsellerini izinsiz alıp pornoya çevirdiğinden şüpheleniyor. Gördükleri karşısında dehşete kapılan Martin, bunları internetten kaldırmak için birkaç yıl boyunca farklı web siteleriyle iletişime geçti. Bazıları yanıt vermezken diğerleri kaldırmış ancak kısa süre sonra tekrar konulmuş. Martin, "Bu kazanabileceğiniz bir mücadele değil, her zaman orada durmaya devam edecek. Sanki seni sonsuza dek sizi mahveden bir durum." diyor ve konu hakkında ne kadar çok konuşursa, sorunun o kadar arttığını belirtiyor. Hatta bu süreçte bazı insanlar ona giyim tarzının ve sosyal medyada yayınladığı resimlerin bu tacize katkıda bulunduğunu söylemiş ve görselleri yaratanlar yerine Martin'i suçlamışlar. En sonunda Martin, Avustralya'da sanal güvenlik düzenlemelerini kullanarak bu tür içerikleri kaldırma bildirimlerine uymayan şirketlere 555 bin Avustralya doları (370 bin 706 Amerikan doları) para cezası verilmesini sağlayacak bir yasanın çıkması için kampanya yapmaya karar verdi. Ancak ülkeler kendi yasalarına sahip olsa da dünya genelinde interneti düzenlemek neredeyse imkansız. Şu anda Batı Avustralya Üniversitesi'nde avukat ve hukuk araştırmacısı olan Martin, sorunun bir tür küresel çözüm yoluyla kontrol altına alınması gerektiğine inandığını söylüyor.   Şirketler tek tek adım atıyor   Bunun yanısıra pek çok AI modelleme uygulaması hali hazırda müstehcen görüntülere erişim sağlamadıklarını belirtiyor. Örneğin görüntü oluşturma aracı olan DALL-E'yi eğitmek için kullanılan verilerde müstehcen içeriklere yer verilmemiş. Bu da kullanıcıların bu tür görüntüleri oluşturma yeteneklerini sınırlayan bir durum. Şirket ayrıca istekleri de filtreliyor ve kullanıcıların ünlülerin ve önde gelen politikacıların AI görüntülerini oluşturmasını engellediğini söylüyor. Başka bir görüntü oluşturma aracı olan Midjourney, belirli anahtar kelimelerin kullanımını engelliyor ve kullanıcıları da sorunlu resimleri moderatörlere bildirmeye teşvik ediyor. Bir başka görüntü oluşturucu ​​Stability AI da kasım ayında müstehcen görüntüler oluşturma yeteneğini sınırlayan bir güncelleme yayınladı. Bu değişiklik, bazı kullanıcıların ünlülerin fotoğraflarını kullanarak çıplak resimler oluşturduklarına dair haberlerin ardından geldi. Bazı sosyal medya şirketleri de platformlarını zararlı materyallere karşı daha iyi korumak için kurallarını sıkılaştırıyor.   TikTok etiketleme zorunluluğu getirdi   Örneğin TikTok geçtiğimiz ay, gerçekçi sahneler gösteren tüm deepfake'lerin veya manipüle edilmiş içeriğin, sahte olduklarını belirtme zorunluluğu getirdi. Bunun için gerekli şekilde bu videoların etiketlenmesi zorunlu hale geldi. Özel kişilerin ve gençlerin deepfake'lerine de artık izin verilmeyeceği açıklandı. Daha önce şirket, müstehcen içeriği ve izleyicileri gerçek dünyadaki olaylar hakkında yanıltan ve zarar veren derin sahte içerikleri de yasaklamıştı.   Twitch kullanıcılarını uyardı   Oyun platformu Twitch ise yakın zamanda, Atrioc adlı bir yayıncının yaptığı canlı yayın sırasında ekranında bir deepfake porno web sitesinin açık olduğunun keşfedilmesinin ardından müstehcen deepfake resimlerle ilgili politikalarını güncelledi. Atrioc'un ekranındaki sitede diğer Twitch yayıncılarının sahte resimleri yer alıyordu. Şirket, "kasıtlı olarak bu tür materyali teşvik etmek, oluşturmak veya paylaşmak platformda anında yasaklanma sebebidir" şeklinde bir açıklama yaptı. Apple ve Google da geçtiğimiz günlerde, ürünü pazarlamak için aktrislerin müstehcen derin sahte videolarını yayınlayan bir uygulamayı mağazalarından kaldırdıklarını söyledi.

{ "vars": { "account": "G-4YY0F4F3S9" }, "triggers": { "trackPageview": { "on": "visible", "request": "pageview" } } } { "vars": { "account": "G-1E4JSD5JXZ" }, "triggers": { "trackPageview": { "on": "visible", "request": "pageview" } } }