DOLAR
41,5965
EURO
48,9367
ALTIN
5.168,23
BIST
11.220,22
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Az Bulutlu
22°C
İstanbul
22°C
Az Bulutlu
Cuma Yağmurlu
23°C
Cumartesi Az Bulutlu
21°C
Pazar Açık
22°C
Pazartesi Çok Bulutlu
21°C

Büyük dil modelleri ile gelen beş önemli risk

Yapay zeka ve onun sağladığı imkanları herkes konuşuyor. Birinci günlerde duyulan heyecan yerini yavaş yavaş risklerin ve gerçekliğinin sorgulanmasına bırakmaya başladı. Siber güvenlik şirketi ESET yapay zeka araçlarını destekleyen büyük lisan modellerini (LLM) incelemeye aldı. 

Büyük dil modelleri ile gelen beş önemli risk
16.11.2023 14:00
12
A+
A-

Büyük lisan modelleri ile gelen beş değerli risk

 

Yapay zekayı kullananlar dikkat

 

Yapay zeka ve onun sağladığı imkanları herkes konuşuyor. Birinci günlerde duyulan heyecan yerini yavaş yavaş risklerin ve gerçekliğinin sorgulanmasına bırakmaya başladı. Siber güvenlik şirketi ESET yapay zeka araçlarını destekleyen büyük lisan modellerini (LLM) incelemeye aldı. 

 

İş dünyası ve BT başkanları, bir yandan teknolojinin müşteri hizmetleri ve yazılım geliştirme üzere alanlarda yaratacağı risk potansiyelini düşünüyor, öteki yandan da yeni gelişmelerin muhtemel dezavantajları ve dikkat edilmesi gereken risklerin de giderek daha fazla farkına varıyorlar. Kuruluşların büyük lisan modellerinin (LLM) potansiyelinden yararlanabilmeleri için, teknolojinin yapılan işe ziyan verebilecek kapalı risklerini de hesaplamaları gerekiyor. 

 

Büyük lisan modelleri nasıl çalışıyor?

ChatGPT ve başka üretken yapay zeka araçları, LLM’ler tarafından desteklenmektedir. Muazzam ölçüde metin verisini işlemek için yapay hudut ağlarını kullanarak çalışırlar. Sözler ortasındaki kalıpları ve bunların içeriğe nazaran nasıl kullanıldığını öğrendikten sonra model, kullanıcılarla doğal lisanda etkileşime girebiliyor. ChatGPT’nin göze çarpan muvaffakiyetinin ana nedenlerinden biri latife yapma, şiir yazma ve genel olarak gerçek bir beşerden ayırt edilmesi sıkıntı bir biçimde irtibat kurma yeteneğidir. ChatGPT üzere sohbet robotlarında kullanılan LLM dayanaklı üretken yapay zeka modelleri, harika güçlü arama motorları üzere çalışıyor ve soruları yanıtlamak ve misyonları insan gibisi bir lisanla yerine getirmek için öğrendikleri dataları kullanıyor. İster kamuya açık modeller ister bir kuruluş içinde dahili olarak kullanılan tescilli modeller olsun, LLM tabanlı üretken yapay zeka, şirketleri muhakkak güvenlik ve kapalılık risklerine maruz bırakabilir. 

 

Beş kıymetli büyük lisan modeli riski

Hassas bilgilerin fazla paylaşımı LLM tabanlı sohbet robotları sır saklama ya da unutma konusunda pek düzgün değil. Bu, yazdığınız rastgele bir datanın model tarafından benimsenebileceği ve oburlarının kullanımına sunulabileceği yahut en azından gelecekteki LLM modellerini eğitmek için kullanılabileceği manasına gelir.

Telif hakkı zorlukları  LLM’lere büyük ölçüde data öğretilir. Lakin bu bilgiler ekseriyetle içerik sahibinin açık müsaadesi olmadan web’den alınır. Kullanmaya devam ettiğinizde potansiyel telif hakkı sıkıntıları oluşabilir.

Güvensiz kod Geliştiriciler, pazara çıkış müddetlerini hızlandırmalarına yardımcı olması hedefiyle giderek daha fazla ChatGPT ve gibisi araçlara yöneliyor. Teorik olarak kod parçacıkları ve hatta tüm yazılım programlarını süratli ve verimli bir biçimde oluşturarak bu yardımı sağlayabilir. Lakin güvenlik uzmanları bunun birebir vakitte güvenlik açıkları da oluşturabileceği konusunda uyarıyor.

LLM’nin kendisini hackleme LLM’lere yetkisiz erişim ve bunlar üzerinde değişiklik yapmak, bilgisayar korsanlarına, modelin süratli enjeksiyon akınları yoluyla hassas bilgileri ifşa etmesini sağlamak yahut engellenmesi gereken öteki aksiyonları gerçekleştirmek üzere berbat niyetli faaliyetler gerçekleştirmeleri için bir dizi seçenek sunabilir.

Yapay zeka sağlayıcısında data ihlali  Yapay zeka modelleri geliştiren bir şirketin kendi datalarının de ihlal edilmesi, örneğin bilgisayar korsanlarının hassas özel bilgiler içerebilecek eğitim bilgilerini çalması ihtimali her vakit vardır. Tıpkı durum bilgi sızıntıları için de geçerlidir. 

 

Riskleri azaltmak için yapılması gerekenler:

  • Veri şifreleme ve anonimleştirme: Bilgileri meraklı gözlerden saklamak için LLM’lerle paylaşmadan evvel şifreleyin ve data kümelerinde kimliği belirlenebilecek şahısların kapalılığını korumak için anonimleştirme tekniklerini değerlendirin. Bilgi temizleme, modele girmeden evvel eğitim datalarından hassas detayları çıkararak birebir maksada ulaşabilir.
  • Gelişmiş erişim denetimleri: Güçlü parolalar, çok faktörlü kimlik doğrulama (MFA) ve en az ayrıcalık siyasetleri, üretken yapay zeka modeline ve art uç sistemlere sırf yetkili bireylerin erişebilmesini sağlamaya yardımcı olacaktır.
  • Düzenli güvenlik kontrolü: Bu, LLM’yi ve üzerine inşa edildiği üretken yapay zeka modellerini etkileyebilecek, BT sistemlerinizdeki güvenlik açıklarının ortaya çıkarılmasına yardımcı olabilir.
  • Olay müdahale planlarını uygulayın: Uygun prova edilmiş ve sağlam bir olay müdahale planı, kuruluşunuzun rastgele bir ihlali denetim altına almak, düzeltmek ve bu ihlalden kurtulmak için süratli bir halde karşılık vermesine yardımcı olacaktır.
  • LLM sağlayıcıların tüm ayrıntılarını inceleyin: Tüm tedarikçilerde olduğu üzere, LLM’yi sağlayan firmanın data güvenliği ve saklılığı alanında dalın en uygun uygulamalarını kullandığını denetim edin. Kullanıcı datalarının nerede işlenip depolandığı ve modeli eğitmek için kullanılıp kullanılmadığı konusunda net açıklamalar olduğundan emin olun. Datalar ne kadar müddetliğine tutuluyor? Bilgiler üçüncü taraflarla paylaşılıyor mu? Datalarınızın eğitim emelli kullanım tercihi değiştirebiliyor mu?
  • Geliştiricilerin sıkı güvenlik tedbirleri uyguladığından emin olun: Geliştiricileriniz kod oluşturmak için LLM’leri kullanıyorsa kusurların üretime sızma riskini azaltmak için güvenlik testi ve meslektaş incelemesi üzere siyasetlere uyduklarından emin olun.

Kaynak: (BYZHA) Beyaz Haber Ajansı

ETİKETLER: , , , ,