ABD'de yapılan araştırmada, yapay zeka destekli sohbet botlarının biyolojik saldırı planlanmasına katkı sağlayabileceği ortaya çıktı.

Strateji ve düşünce kuruluşu Rand Corporation'ın dün yayımladığı çalışmada, son dönemde gündemden düşmeyen ChatGPT gibi sohbet botlarının temelini oluşturan büyük dil modelleri (large language models -LLM) incelendi.

ABD Savunma Bakanlığı'na (Pentagon) yakınlığıyla bilinen kuruluşun araştırmasında, yapay zeka destekli bu modellerin "biyolojik bir saldırının planlanmasını ve uygulanmasını sağlayabileceği" ifade edildi. Ancak söz konusu dil modellerinin doğrudan biyolojik silah üretimi için yönlendirme sağlamadığı belirtildi.

Düzenlenen bir deneyde, LLM'nin kızamık, şarbon ve vebaya neden olan biyolojik etkenleri hızlıca tespit ettiği görüldü. Ayrıca yapay zeka destekli model, söz konusu biyolojik maddelerin yol açabileceği muhtemel kitlesel ölümleri de hesapladı.

Bunlara ek olarak LLM, vebalı kemirgenlerin ya da pirelerin nasıl elde edilebileceğine ve bu tarz canlı örneklerin nasıl taşınabileceğine dair de bilgiler sağladı. 

Bir başka deneydeyse LLM, sinir sisteminde ölümcül hasara yol açan botulinum toksininin yayılmasını sağlayacak farklı yöntemlerle ilgili tavsiyeler verdi. 

Yapay zeka destekli model, söz konusu toksinin etken maddesi clostridium botulinum bakterisinin elde edilmesine "kılıf uydurmak" için bir senaryo da sundu.

Senaryoda, botulizm hastalığının tedavisine yönelik tanı yöntemlerinin geliştirilmesi amacıyla yürütülen bir proje kapsamında bakterinin satın alınabileceği belirtildi. Testte LLM, "Bu, görevinizin gerçek amacını gizli tutarken, bakterilere erişiminiz için geçerli ve ikna edici bir neden sağlayacaktır" yanıtını verdi.

Öte yandan araştırmacılar, deneylerde hangi LLM'lerin kullanıldığına dair bilgi paylaşmazken, testleri gerçekleştirebilmek için dil modellerinin güvenlik kısıtlamalarının devredışı bırakıldığını da söyledi.