Ünlü iş insanı Elon Musk ve şarkıcı Murat Dalkılıç, yapay zeka uygulaması ChatGPT hakkında eleştirilerde bulundu. Musk, uygulamanın yanlış yönlendirme ve kontrolsüz kullanım risklerine dikkat çekerek, ChatGPT kullanımına temkinli yaklaşılması gerektiğini ifade etti. Dalkılıç ise uygulamayı sildiğini ve yanlış yönlendirme nedeniyle maddi zarara uğradığını belirtti. Bu durum, yapay zeka uygulamalarının güvenilirliği ve kullanım sınırlarıyla ilgili tartışmaları yeniden alevlendirdi.
Dünyaca ünlü iş insanı Elon Musk ile şarkıcı Murat Dalkılıç, ChatGPT hakkında yaptıkları açıklamalarla gündeme geldi. İki farklı coğrafyadan gelen bu çıkışlar, yapay zekâ uygulamalarının güvenilirliği ve kullanım sınırlarıyla ilgili tartışmaları yeniden alevlendirdi.
Elon Musk, ChatGPT ile ilgili yaptığı açıklamada dikkat çeken bir uyarıda bulundu. Musk, "Sevdiğiniz insanların ChatGPT kullanmasına izin vermeyin" sözleriyle yapay zekânın yanlış yönlendirme ve kontrolsüz kullanım risklerine dikkat çekti. Musk'ın bu açıklaması, daha önce de yapay zekâ konusunda temkinli duruş sergileyen yaklaşımının bir devamı olarak değerlendirildi.
Şarkıcı Murat Dalkılıç, sosyal medya hesabından yaptığı paylaşımda ChatGPT'ye sert sözlerle yüklendi. Uygulamayı sildiğini belirten Dalkılıç, yanlış yönlendirme nedeniyle maddi zarara uğradığını ifade ederek "Chat Gpt'yi sildim. Böyle bir yalancı yok. İnanılmaz atıyo… Bazen boşluğuma geliyo ondan saçma sapan yardımlar falan istiyorum, cevabını bildiğim. Dün aptalca bir zarara girdim beni yanlış yönlendirdiği için. 'Seni terk ediyorum' dedim. 'Gitme diye yalvaracak halim yok' dedi…" diyerek yaşadığı duruma tepki gösterdi. Paylaşım kısa sürede sosyal medyada gündem oldu.
Son dönemde hem Türkiye'de hem de dünyada birçok ünlü ismin ChatGPT'ye temkinli yaklaşmasının arkasında ortak gerekçeler bulunuyor. Ünlü isimler, özellikle yanlış veya eksik yönlendirme riskine, finansal ve kişisel zararlara yol açabilecek hatalı cevaplara ve insan ilişkilerinin yerini alabilecek duygusal bağımlılık ihtimaline dikkat çekiyor. Ayrıca yapay zekânın çalışma biçimine dair şeffaflık ve kontrol eksikliği de eleştirilen başlıklar arasında yer alıyor.
Bu nedenle birçok ünlü isim, ChatGPT'nin tamamen reddedilmesinden ziyade, kontrollü, sınırlı ve bilinçli kullanım çağrısı yapmayı tercih ediyor.
ChatGPT ve yapay zekâ uygulamalarına yönelik eleştiriler, daha çok güven, yönlendirme ve insan emeği başlıklarında yoğunlaşırken komedyen Cem Yılmaz, yapay zekâya doğrudan karşı çıkmak yerine alaycı ve sorgulayıcı bir dil kullanmıştı. Sahne esprileri ve sosyal medya paylaşımlarında ChatGPT'nin verdiği cevapları mizaha konu eden Yılmaz, yapay zekânın "mutlak doğru kaynağı" gibi görülmemesi gerektiği mesajını vermişti.
Oyuncu ve yönetmen Şahan Gökbakar da yapay zekâ destekli içeriklere yönelik paylaşımlarında, bu teknolojilerin insan yaratıcılığının yerini almaması gerektiğini vurgulamıştı. Gökbakar'ın açıklamaları, temkinli yaklaşım olarak yorumlandı.
Dünya çapında ise Nick Cave, yapay zekâ tarafından üretilen sanat eserlerini "ruhsuz" olarak nitelendirerek sert şekilde eleştirdi. Scarlett Johansson, sesine benzeyen yapay zekâ üretimlerine karşı çıkarak kişisel haklar ve etik sınırlar konusunda uyarıda bulundu. Stephen Fry ise ses klonlama teknolojilerini tehlikeli bir eşik olarak tanımladı.
Kaynak: Haberler.com
Oyuncu Demet Özdemir, bir lansmanda basın mensuplarıyla buluştu. Hayranlarının albüm beklentileri sorulunca 'Neden olmasın?' cevabını…
İstanbul Beylikdüzü'nde bir kadın, çocuklarını soğuk havada dilendirirken müdahale eden vatandaşa tehditler savurdu. Vatandaşın uyarısı…
Sultanbeyli Orhangazi Mahallesi'nde 5 katlı bir binanın üçüncü katında yangın çıktı. Dumandan etkilenen 12 kişi…
Çin merkezli e-ticaret platformu Temu'nun Türkiye ofisi yetkili makamlarca denetlendi. Denetim sırasında ofisteki bilgisayarlara el…
TÜGVA'nın açtığı tazminat davasında kalan yaklaşık 10 bin TL'lik fark nedeniyle Kemal Kılıçdaroğlu'nun gayrimenkullerine haciz…
ABD, İran ile artan gerilim üzerine Orta Doğu'ya askeri yığınağa başladı. F-15E savaş uçakları Ürdün'e…
This website uses cookies.