ChatGPT kullanımında nelere dikkat edilmeli
Günümüzde birçok kişi işleri için ChatGPT gibi yapay sinir ağlarına dayalı dil modellerini kullanıyor. Rusya’da yapılan bir ankete göre , katılımcıların %11’inin sohbet robotlarını kullandığını ve yaklaşık %30’unun gelecekte işlerin yerini alma potansiyeline inandığını ortaya koydu.
Diğer anketler, Belçikalı ofis çalışanlarının %50’sinin ve Birleşik Krallık’takilerin %65’inin ChatGPT’ye güvendiğini gösteriyor. Ayrıca Google Trends’te “ChatGPT” arama teriminin hafta içinde öne çıkması, muhtemelen işle ilgili taleplere bağlı olarak kullanımda belirgin bir artış olduğunu gösteriyor.
Ancak sohbet robotlarının iş yerindeki artan kullanımı çok önemli bir soruyu gündeme getiriyor: Hassas kurumsal veriler bu robotlara emanet edilebilir mi? Güvenlik araştırmacıları, ChatGPT’nin iş amaçlı kullanımıyla ilgili beş temel risk belirledi.
Sağlayıcı tarafında veri sızıntısı veya sisteme sızma
Her ne kadar LLM tabanlı sohbet robotları teknoloji devleri tarafından işletiliyor olsa da, onlar bile bilgisayar korsanlığına veya sızıntılara karşı bağışık değildir. Örneğin ChatGPT kullanıcılarının başkalarının sohbet geçmişlerindeki mesajları görebildiği bir olay gerçekleşti.
Sohbet robotları aracılığıyla veri sızıntısı
Teorik olarak sohbet robotlarıyla yapılan yazışmalar gelecekteki modelleri eğitmek için kullanılabilir. LLM’lerin model kalitesini artırmayan, ancak gizlilik riskleri oluşturan telefon numaraları gibi benzersiz dizileri hatırladıkları ve “kasıtsız ezberlemeye” duyarlı oldukları düşünüldüğünde, eğitim geçmişindeki herhangi bir veriye yanlışlıkla veya kasıtlı olarak diğer kullanıcılar tarafından bu model aracılığıyla erişilebilir.
Kötü niyetli istemci
Bu, ChatGPT gibi resmi hizmetlerin engellendiği yerlerde büyük bir endişe kaynağıdır. Kullanıcılar programlar, web siteleri veya mesajlaşma botları gibi resmi olmayan alternatiflere başvurabilir ve mevcut olmayan istemci veya uygulama olarak gizlenmiş kötü amaçlı yazılımları indirebilir.
Hesap ele geçirme
Saldırganlar, kimlik avı saldırıları veya kimlik bilgisi doldurma yoluyla çalışan hesaplarına girerek verilerine erişebilir. Yukarıda bahsi geçen veri kaybı, sohbet robotlarını kullanan kullanıcılar ve işletmeler için önemli bir gizlilik endişesi oluşturuyor.
Sorumlu geliştiriciler, gizlilik politikalarında verilerin model eğitimi için nasıl kullanıldığını ana hatlarıyla belirtir. Araştırmacıların ChatGPT, ChatGPT API, Anthropic Claude, Bing Chat, Bing Chat Enterprise, You.com, Google Bard ve Alloy Studios tarafından geliştirilen Genius App gibi popüler sohbet botları üzerinde yaptığı analiz, B2B sektöründe kurumsal bilgilerin açığa çıkma riskinin daha yüksek olması nedeniyle daha yüksek güvenlik ve gizlilik standartları olduğunu gösteriyor.
Sonuç olarak, veri kullanımı, toplanması, depolanması ve işlenmesine ilişkin hüküm ve koşullar, B2C sektörüne kıyasla daha fazla korumaya odaklanıyor. Bu çalışmadaki B2B çözümleri genellikle sohbet geçmişlerini otomatik olarak kaydetmiyor ve bazı durumlarda sohbet robotu müşterinin ağında yerel olarak çalıştığı için şirketin sunucularına hiçbir veri göndermiyor.
SON DAKİKA
EN ÇOK OKUNANLAR
2,33 milyarın üzerinde kullanıcısı olan WhatsApp’a yeni emoji! Gören aynı şeyi söyledi: 'ÇOK TATLI!'
Instagram’a ekran görüntüsü almayı engelleme özelliği geliyor
WHATSAPP KULLANICILARI DİKKAT! Tüm bilgileriniz tehlikede olabilir
Bakan Kacır, Milano'daki 75. Uluslararası Uzay Kongresi'ne katıldı
Twitch kapatılacak mı, yasaklanacak mı? Bakan Uraloğlu'ndan önemli açıklama!