Yapay zeka şirketi OpenAI'ın, kurumsal casusluğa karşı koruma sağlamak için güvenlik operasyonlarını artırdığı açıklandı.Şirket, Çinli startup DeepSeek'in Ocak ayında rakip bir model yayınlamasının ardından mevcut güvenlik önlemlerini hızlandırdı. OpenAI, DeepSeek'in modellerini uygunsuz bir şekilde kopyaladığını iddia ediyor.OpenAI tarafından güçlendirilmiş güvenliğin, personelin hassas algoritmalara ve yeni ürünlere erişimini sınırlayan bilgi havuzu politikalarını içerdiği belirtildi. OpenAI'nin o1 modelinin geliştirilmesi sırasında, yalnızca projeye dahil olan doğrulanmış ekip üyeleri, paylaşılan ofis alanlarında bunu tartışabiliyor. Ayrıca OpenAI artık çevrimdışı bilgisayarlarda tescilli teknolojiyi izole ediyor, ofis alanları için biyometrik erişim kontrolleri uyguluyor. Şirketin ayrıca veri merkezlerindeki fiziksel güvenliği artırdığı ve siber güvenlik personelini genişlettiği bildirildi.Değişikliklerin, yabancı rakiplerin OpenAI'ın fikri mülkiyetini çalmaya çalışmasıyla ilgili daha geniş endişeleri yansıttığı söyleniyor. Ancak Amerikan AI şirketleri arasında devam eden kaçak avcılık savaşları ve CEO Sam Altman'ın yorumlarının giderek daha sık sızdırılması göz önüne alındığında, OpenAI iç güvenlik sorunlarını da ele almaya çalışıyor olabilir.
Teknoloji
OpenAI, şirket içi casusluğa karşı güvenlik önlemlerini artırıyor
Yapay zeka şirketi OpenAI, kurumsal casusluğa karşı güvenlik önlemlerini artırdı. Bu adım, Çinli startup DeepSeek'in rakip bir model yayınlaması ve OpenAI'ın DeepSeek'in modellerini kopyaladığı iddiasının ardından geldi.
Ahmet Yıldız
•