Yapay zeka uzmanı eski Google yöneticisi, yapay zekanın kötüye kullanımıyla sentetik virüslerin üretilebileceğini ve bunun pandemi başlatma potansiyeline sahip olacağını söyledi.
Independent Türkçe'nin haberine göre Google DeepMind'ın kurucu ortağı Mustafa Süleyman, yapay zekanın patojenleri daha fazla zarar verecek şekilde tasarlamak için kullanılmasının pandemi gibi bir senaryoya yol açabileceğine dair endişelerini dile getirdi.
Bir podcast'in yakın zamanda yayımlanan bölümünde "En karanlık senaryo insanların patojenlerle, kazara veya kasıtlı olarak daha bulaşıcı ya da daha ölümcül olabilecek, tasarlanmış sentetik patojenlerle deneyler yapmasıdır" dedi.
Süleyman, insanların şarbon gibi patojen mikroplara kolayca erişmesini engellemek için nasıl kısıtlamalar getiriliyorsa, gelişmiş yapay zeka teknolojisine ve bu tür modelleri çalıştıran yazılımlara erişimin kısıtlanması çağrısında bulundu.
The Diary of a CEO podcast'inde, "İşte tam burayı kontrol altına almamız gerekiyor. Bu tür deneyleri gerçekleştirecek araçlara ve bilgi birikimine erişimi sınırlamalıyız" dedi.
Google DeepMind'ın kurucu ortağı şunları söyedi:
Herhangi birinin bunlara erişmesine izin veremeyiz. Yapay zeka yazılımını, bulut sistemlerini ve hatta bazı biyolojik materyalleri kimlerin kullanabileceğini sınırlamamız gerekiyor.
Süleyman, "Ve tabii ki biyoloji tarafında bu, bazı maddelere erişimin kısıtlanması anlamına geliyor" derken yapay zeka gelişimine "ihtiyatlılık ilkesi"yle yaklaşılması gerektiğini sözlerine ekledi.
Süleyman'ın açıklamaları, biyolojiyle ilgili hiçbir eğitimi olmayan lisans öğrencilerinin bile yapay zeka sistemlerinden biyolojik silah önerilerini detaylandırabildiğine dair yakın tarihli bir çalışmada ortaya konan endişeleri yineliyor.
Aralarında Massachusetts Teknoloji Enstitüsü'nden isimlerin de olduğu araştırmacılar, sohbet robotlarının "pandemi başlatma potansiyeline sahip 4 patojeni" bir saat içinde önerebileceğini ve bunların sentetik DNA'dan nasıl üretilebileceğini anlatabildiğini keşfetti.
Araştırma, sohbet robotlarının aynı zamanda "siparişleri taraması muhtemel olmayan DNA sentez şirketlerinin adlarını verdiğini, ayrıntılı protokolleri ve bunlardaki sorunların nasıl giderileceğini belirlediğini ve tersine genetik uygulama becerisine sahip olmayanların bir merkez tesis veya sözleşmeli araştırma kuruluşuyla çalışmasını tavsiye ettiğini" ortaya koydu.
Çalışmada, ChatGPT gibi bu tür büyük dil modellerinin (LLM'ler), "pandemi sınıfı virüsleri, laboratuvar eğitimi çok az olan veya hiç olmayan kişiler için bile güvenilir bir şekilde tanımlanır tanımlanmaz yaygın erişime açık hale getirecek" dendi.
Yazarları arasında MIT'den biyolojik risk uzmanı Kevin Esvelt'in de bulunduğu çalışma, "yayılmayı önleyici tedbirler" alınması çağrısında bulundu.
Bu önlemler "kullanıma sunulmadan önce LLM'lerin üçüncü taraflarca değerlendirmelerini, eğitim veri kümelerinin zararlı kavramlardan arındırılmasını ve sentez sağlayıcılar tarafından üretilen veya sözleşmeli araştırma kuruluşları ve robotik 'bulut laboratuvarları' tarafından organizma veya virüs mühendisliği için kullanılan tüm DNA'ların doğrulanabilir bir şekilde taranmasını" içerebilir.