OpenAI yapay zeka model güvenlik testlerini azalttı – FT
Investing.com — OpenAI, yapay zeka modellerinin güvenliğini test etmeye ayırdığı zaman ve kaynakları azalttı. Financial Times’ın Cuma günü bildirdiğine göre bu durum, teknolojisinin uygun korkulukları konusunda bazı endişeleri artırdı.
FT raporunda, konuya aşina sekiz kişiye dayandırılan bilgilere göre, OpenAI’ın modellerinin risklerini ve performansını değerlendiren personel ve gruplara son zamanlarda değerlendirmeleri yapmak için sadece birkaç gün verildi.
FT raporuna göre, start-up’ın test süreçleri, riskleri azaltmaya yönelik daha az kaynak ve daha az zaman ayrılmasıyla birlikte daha az kapsamlı hale geldi.
Bu rapor, OpenAI’ın güncellenmiş yapay zeka modellerini piyasaya sürme ve özellikle DeepSeek gibi yeni Çinli rakiplerin artan rekabeti karşısında rekabet avantajını koruma yarışı içinde olduğu bir dönemde geldi.
OpenAI, yeni o3 modelini önümüzdeki hafta piyasaya sürmeye hazırlanıyor. Ancak henüz kesin bir yayın tarihi belirlenmedi. Güncellenmiş modelleri piyasaya sürme telaşı, firmanın güvenlik kontrollerini potansiyel olarak tehlikeye atıyor.
Bununla birlikte, daha düşük güvenlik testi sürelerine ilişkin raporlar, yapay zekada eğitimden çıkarıma doğru bir değişim yaşandığı bir dönemde geliyor. Çıkarım, yeni verilerin işlenmesi ve üretilmesi anlamına gelirken, eğitim ise bir yapay zeka modelinin yeteneklerini geliştirmek için mevcut verileri kullanıyor.
OpenAI, Nisan ayının başlarında Japonya merkezli SoftBank Group Corp. (TYO:9984) liderliğindeki bir finansman turunda 40 milyar dolar topladığını ve şirketin değerinin 300 milyar dolar olduğunu açıklamıştı.
Bu makale yapay zekanın desteğiyle oluşturulmuş, çevrilmiş ve bir editör tarafından incelenmiştir. Daha fazla bilgi için Şart ve Koşullar bölümümüze bakın.







