enflasyonemeklilikötvdövizakpchpmhp
DOLAR
42,2347
EURO
48,8118
ALTIN
5.501,81
BIST
10.924,53
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Çok Bulutlu
21°C
İstanbul
21°C
Çok Bulutlu
Salı Hafif Yağmurlu
19°C
Çarşamba Az Bulutlu
16°C
Perşembe Çok Bulutlu
15°C
Cuma Çok Bulutlu
15°C

Yapay zeka ile tamamen yeni virüsler üretildi: Bir sonraki salgın AI elinden mi olacak?

Yapay zeka teknolojisi, şimdi de daha önce var olmayan tamamen yeni virüsler tasarlayarak bilim dünyasında büyük bir heyecan yarattı. Ancak aynı dönemde gelen bir başka uyarı, en gelişmiş biyogüvenlik sistemlerinin bile kötü niyetli AI tarafından kolayca aşılabildiğini gösteriyor.

Yapay zeka ile tamamen yeni virüsler üretildi: Bir sonraki salgın AI elinden mi olacak?
09.10.2025 19:40
2
A+
A-

Yapay zeka teknolojisi, yazılımdan sanata kadar her alanı dönüştürmeye devam ederken, şimdi de bilim insanlarının elinde tamamen yeni yaşam biçimleri tasarlamanın kapısını araladı. Son dönemde yayımlanan iki farklı çalışma, AI’nin biyoloji alanındaki muazzam potansiyelini gözler önüne sererken, aynı zamanda bu gücün kontrolüne dair ciddi endişeleri de beraberinde getiriyor.

Stanford Üniversitesi’nden Sam King ve danışmanı Brian Hie tarafından yürütülen ve henüz hakemli değerlendirme sürecinde olan bir çalışma, AI kullanarak bakterileri öldürebilen, tamamen yeni bakteriyofajlar (bakteri yiyen virüsler) üretmeyi başardı. Bu virüsler, mevcut türlerden o kadar farklılar ki, potansiyel olarak yeni bir tür olarak sınıflandırılmaları bile mümkün.

Araştırmacıların asıl amacı, antibiyotik direncinin yarattığı krize çözüm bulmak için bakteriyofajları kullanmaktı. King ve ekibi, bu çalışmada güvenlik önlemlerine büyük önem verdiler; AI modellerini yalnızca insanları, hayvanları veya bitkileri enfekte etmeyen virüslerle eğittiler ve tasarlanan virüslerin tehlikeli bir patojeni taklit edip edemeyeceğini test ettiler. Ekip, bu yöntemle tehlikeli bir virüs üretmenin, mevcut klasik laboratuvar yöntemlerine göre “çok daha zor” olduğunu vurguluyor.

Microsoft uyardı: Güvenlik önlemleri yeterli değil

Ancak aynı dönemde yayımlanan çarpıcı bir başka araştırma, bu iyimser tabloya gölge düşürdü. Microsoft araştırmacıları, AI’nin mevcut biyogüvenlik önlemlerini ne kadar kolay aşabildiğini gösteren bir çalışma yayımladı.

Science dergisinde yer alan bu araştırmada, AI’nin kötü niyetli bir kişi tarafından, toksik ve zararlı molekülleri sipariş etmeyi engelleyen ticari biyogüvenlik tarama sistemlerini nasıl kandırabileceği ortaya kondu. Microsoft ekibi, bu güvenlik açıklarını hızla kapatmak için yazılım yamaları geliştirse de, bu koruma sistemlerinin şu an için yalnızca belirli uzmanlığa sahip laboratuvarlarda kullanılabildiğini belirtmek gerekiyor.

Bu iki çalışmanın yan yana gelmesi, AI’nin gelecekte insanlar için tehlike yaratabilecek yeni yaşam formları veya biyolojik silahlar tasarlama kapasitesine ulaşma endişesini artırıyor. Uzmanlar, bu tehlikenin şu an için teorik olsa da, “çok uzak bir olasılık olmadığını” vurguluyorlar.

Bu durum, AI destekli biyoteknoloji çalışmalarının merkezinde yer alan “çift kullanımlı teknoloji sorunu”nu gündeme getiriyor. Yani bir buluşun hem insanlığa fayda sağlayabilecek (yeni ilaçlar gibi) hem de kötü amaçlarla kullanılabilecek özellikler taşıması… Örneğin bir araştırmacı, bir patojenin yayılma şeklini anlamak için genetik bir değişiklik yaparken, aynı bilgi, ölümcül bir biyolojik silah geliştirmek isteyen birinin eline geçebilir.

“Hükümetler ve kurumlar harekete geçmeli”

Şimdilik AI’nin tam anlamıyla canlı ve insanlara zararlı olabilecek bir türü laboratuvar ortamında tek başına tasarlayıp hayata geçirmesi mümkün değil. Ancak bu olasılık giderek yaklaşıyor. Bu nedenle bilim insanları, çok katmanlı güvenlik sistemleri, gelişmiş tarama yazılımları ve AI ile biyolojik sentez süreçlerini düzenleyen yeni yasaların hızla oluşturulması gerektiğini belirtiyor.

ABD’de 2023 tarihli bir başkanlık kararnamesi, AI sistemlerinin “güvenli, tekrarlanabilir ve denetlenebilir” olması gerektiğini vurgularken, İngiltere’de de AI kaynaklı riskleri azaltmak için politikalar geliştiren devlet destekli kurumlar kuruluyor.

ETİKETLER: , , ,
Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.