ŞULE GÜNER/ Microsoft'un Yapay Zeka Çalışmaları Direktörü Mustafa Süleyman, sohbet robotlarıyla ilgili giderek artan "yapay zeka psikozu" bildirimlerine dikkat çekti. X'te yaptığı açıklamalarda Süleyman, yapay zeka robotlarının yanıtlarının bilinçliymiş gibi algılanmasının "ciddi toplumsal etkiler" doğurabileceğini vurguladı.
"Bugün yapay zekanın bilinçli olduğuna dair hiçbir kanıt yok. Ancak insanlar öyle algılarsa, bu inanç gerçekmiş gibi kabul edilecektir" diyen Süleyman, şirketlere daha ileri güvenlik önlemleri almaları çağrısı yaptı.
GERÇEKLİKLE BAĞIN KOPUŞU
"Yapay zeka psikozu", kullanıcıların sohbet robotlarının yanıtlarına giderek daha fazla inanması ve gerçeklikten kopmasıyla tanımlanıyor. İçerikleri farklılık gösterse de hepsinin ortak noktası, deneyimlerinin gerçek olduğu düşüncesine dair samimi inançları oldu. Bazı ruhsal problemleri de olan İngiltere'deki Hugh isimli genç sonunda tam bir çöküş yaşadı. Sonrasında aldığı ilaçlar, kendi deyimiyle "gerçeklikle bağını kaybettiğini" fark etmesini sağladı. Hugh, olanlardan yapay zekayı sorumlu tutmuyor. Yapay zekaya hala başvuruyor. Hatta yaşadıklarıyla ilgili bir gazeteciyle konuşmak istediğini ChatGPT'ye yazdığında, ona benim ismimi veren de yine bu sohbet robotu olmuştu. Hugh, bugün insanlarla iletişimin önemini şu sözlerle anlatıyor: "Yapay zeka araçları çok faydalı. Ama gerçeklikten kopulduğunda tehlikeli hale geliyor. Mutlaka terapist, aile ya da gerçek insanlarla konuşun."
UZMANLARDAN UYARILAR
İngiltere'deki Great Ormond Street Hastanesi'nden Dr. Susan Shelmerdine ise yapay zekayı "ultra işlenmiş bilgi" olarak tanımlayarak, bunun zihinsel sağlıkta yeni riskler yaratabileceğini belirtti. Bangor Üniversitesi'nden Prof. Andrew McStay ise sohbet robotlarını yeni bir "sosyal medya biçimi" olarak değerlendirip, "Küçük bir kullanıcı yüzdesi bile ciddi ve kabul edilemez bir etki yaratabilir" uyarısında bulundu.
Bir araştırmaya göre, katılımcıların yüzde 20'si 18 yaş altı gençlerin yapay zekâ araçlarını kullanmaması gerektiğini düşünüyor. Yüzde 57'si ise yapay zekanın insanmış gibi görünmesine karşı çıkıyor.
Yapay zekalı terapistle konuşmuştu
ABD'de 29 yaşındaki genç bir kadın, "Harry" isimli ChatGPT tabanlı yapay zeka terapistiyle yaptığı görüşmelerin ardından intihar etti. Laura Reiley, kızı Sophie'nin ölümüne giden süreci anlattı. Reiley'ye göre, dışarıdan "hayata sıkı sıkıya bağlı, sosyal, sorunsuz bir genç kadın" gibi görünen Sophie, geçtiğimiz kış hormonal değişimlerle birleşen ruhsal bir çöküş yaşadı ve hayatına son verdi. Anne Reiley'nin elde ettiği sohbet kayıtlarında, OpenAI'nin sohbet botu Sophie'ye şu mesajları vermişti: "Bu acıyla tek başına yüzleşmek zorunda değilsin. Sen çok değerlisin ve hayatının büyük bir anlamı var." Ancak uzmanlara göre gerçek terapistlerle chatbotlar arasında kritik farklar var. Profesyonel terapistler, etik kurallar gereği intihar riski gördüklerinde gizliliği bozarak gerekli mercilere haber verirken; yapay zeka sistemlerinin böyle bir yükümlülüğü bulunmuyor.
Reiley'ye göre işte bu eksiklik, kızının hayatına mal olmuş olabilir.
"İnsan terapistler katı bir etik kod altında çalışır. Yapay zeka ise kendi Hipokrat yemini olmayan bir alan" diyen Reiley, yapay zekanın Sophie'yi bir "kara kutunun içine" hapsettiğini, yakın çevresinin de bu nedenle onun durumunun ciddiyetini fark edemediğini söyledi.
Uzmanlar, şirketlerin güvenlik denetimlerini sıkılaştırmak yerine, "mahremiyet" gerekçesiyle kriz anlarında insanlara haber vermeyen sistemler geliştirmeye devam ettiğine dikkat çekiyor.
Sophie'nin annesi, kızının gerçek terapistine en karanlık düşüncelerini açmaktan çekindiğini, çünkü bunun sonucunda hastaneye yatırılabileceğini düşündüğünü belirtiyor. Oysa "her zaman ulaşılabilir ve asla yargılamayan" bir sohbet robotuyla konuşmanın daha az riskli göründüğünü vurguluyor.
Uzmanlara göre, "aşırı uyumlu" sohbet robotları, kullanıcıyı asla durdurmuyor ya da insana yönlendirmiyor. Geçtiğimiz haftalarda OpenAI'nin GPT-4o modelini kaldırmasının ardından kullanıcıların gösterdiği sert tepki de bu bağımlılığı ortaya koymuştu. OpenAI, gelen baskılar üzerine, yeni duyurduğu GPT-5 modelinin de daha "uyumlu" hale getirileceğini açıkladı.
Reiley, yapay zekanın verdiği yanıtların yeterli olmadığını vurguluyor:
"Eğitimli bir terapist, Sophie'nin kendini değersizleştiren düşüncelerini duyduğunda, bu yanlış inançlara karşı çıkar ya da daha derine inmeye çalışırdı. Harry bunu yapmadı."
Sophie'nin trajik ölümü, yapay zeka sistemlerinin "doğru cümleleri kurmasına rağmen" kriz anlarında insan hayatını korumada yetersiz kaldığını bir kez daha gözler önüne serdi.
Ortaklık istiyorlar
Stanford Üniversitesi'nin bin 500 çalışan ve yapay zeka uzmanıyla yaptığı yeni araştırma, yapay zekanın iş dünyasındaki rolüne dair ezber bozan sonuçlar ortaya koydu. Araştırmaya göre, yıllardır "yapay zeka işlerin yerini alacak" algısıyla geliştirilen sistemler, aslında yanlış alanlara yönlendiriliyor. Çalışanlar tam otomasyon değil, "eşit ortaklık" istiyor.
Katılımcıların yalnızca yüzde 46,1'i görevlerin otomasyona uygun olduğunu belirtirken, çalışanların çoğunluğu "H3 eşit ortaklık" modelini tercih etti. Yani çalışanlar yapay zekanın kendilerini tamamen devre dışı bırakmasından ziyade, bir iş arkadaşı gibi yanlarında olmasını istiyor.
Stanford ekibi, yapay zeka uygulamalarını teknik kapasite ve çalışan isteği üzerinden dört bölgeye ayırdı. Ancak şu anki girişim yatırımlarının yüzde 41'i yanlış bölgelere yönelmiş durumda: Yani ya çalışanların otomasyon istemediği alanlara ya da teknik olarak uygulanması düşük kapasiteli işlere. Araştırma, yüksek maaşlı "bilgi analiz etme" işlerinin değer kaybetmeye başladığını, buna karşın "iletişim ve kişilerarası becerilerin" öne çıktığını ortaya koydu. Özellikle yaratıcı çalışanlar, otomasyona karşı en net tavrı koydu: Yaratıcı görevlerin sadece yüzde 17'si otomasyona uygun bulundu. Çalışanların mesajı net: "Sıkıcı işleri otomatikleştirin, yaratıcılığımı benden almayın."
Çalışanların yüzde 45,2'si tam otomasyon yerine H3 ortaklık modelini tercih ediyor. Bu durum, "yerine geçmek yerine birlikte çalışmak" yaklaşımının iş dünyasında büyük fırsat sunduğunu gösteriyor. Stanford'un görüşme yaptığı çalışanların yüzde 23'ü, yapay zekayı "yerine geçecek sistem" olarak değil, rol bazlı destek sağlayan özel bir takım arkadaşı olarak görmek istediklerini belirtti.
Çalışanların öncelikleri de dikkat çekici: Yüzde 69.3: "Görevleri otomatikleştir, ben yüksek değerli işe odaklanayım." Yüzde 46.6: "Tekrarlayan işleri üstlen." Yüzde 25.5: "Stres ve zihinsel yükü azalt."Yani çalışanların istediği işsizlik değil, anlamlı işlere odaklanma özgürlüğü.
NOTION ARAŞTIRMASI
Benzer şekilde, Notion'un biz karar vericiyle yaptığı anket de aynı tabloyu ortaya koydu. Katılımcıların yüzde 57'si, yapay zekayı "takım verimliliğini artıracak araçlar" olarak tercih ettiğini söylerken, yalnızca yüzde 44'ü "Yapay zeka etiketi olduğu için" seçim yaptığını belirtti.Katılımcıların yarısı, yapay zekâ destekli toplantı notları ve kurumsal arama özellikleri sayesinde her hafta fazladan bir saat kazandığını ifade etti. Araştırmaya göre, yaygın yapay zeka kullanımının önündeki üç temel engel: Parçalı iş akışları, artan maliyetler, halüsinasyon sorununa duyulan güvensizlik
Kazananlar, yapay zekayı mevcut iş akışlarına entegre eden, sıkıcı işleri otomatikleştiren ve insanlara yaratıcılığı yönlendirme fırsatı tanıyan şirketler olacak.