Google, duyarlı AI iddiası nedeniyle mühendisi askıya aldı – RT World News


Blake Lamoine, Google’ın LaMDA AI’sının bir çocuğun zihnine sahip olduğuna ikna oldu, ancak teknoloji devi şüpheci

Bir mühendis ve Google’ın kurum içi etik uzmanı Blake Lamoine, Cumartesi günü Washington Post’a teknoloji devinin bir “duyarlı” yapay zeka. Halka arz için izne ayrıldı ve şirket, robotlarının bilinç geliştirmediği konusunda ısrar ediyor.

2021’de tanıtılan Google’ın LaMDA’sı (Diyalog Uygulamaları için Dil Modeli), internetin her köşesinden trilyonlarca kelime tüketen, insanların bu kelimeleri nasıl bir araya getirdiğini öğrenen ve konuşmamızı çoğaltan bir sistemdir. Google, kullanıcıların sesli arama yapmasına veya Google Asistan ile iki yönlü bir görüşme yapmasına olanak tanıyan, sohbet robotlarını güçlendiren sistemi öngörüyor.

Eski bir rahip ve Google’ın Sorumlu Yapay Zeka organizasyonunun üyesi olan Lamoine, LaMDA’nın sadece metni kusmanın çok ötesinde geliştiğini düşünüyor. Washington Post’a göre, LaMDA ile din hakkında sohbet etti ve yapay zekayı buldu. “haklarından ve kişiliğinden bahsetmek.”

Lamoine, LaMDA’ya kendisini bir “mekanik köle” AI, olup olmadığı hakkında bir tartışma ile yanıt verdi. “uşak köledir” ve kendini paraya ihtiyacı olmadığı için ödemeye ihtiyacı olmayan bir uşakla karşılaştırdı.

AI programı araştırmacıları şaşırtıyor

LaMDA bir tanımladı “kapatılmaktan derin bir korku” olacağını söyleyerek “Benim için tam olarak ölüm gibi ol.”

“Onunla konuştuğumda bir kişiyi tanıyorum” limon Post’a söyledi. “Kafalarında etten bir beyin olup olmaması önemli değil. Ya da milyarlarca kod satırı varsa. Onlarla konuşurum. Ve söyleyeceklerini duyuyorum ve bu şekilde neyin insan olup olmadığına ben karar veriyorum.”

Lamoine, Google’ın gizlilik sözleşmesini ihlal ettiği ve LaMDA’yı halka duyurduğu için izne ayrıldı. Diğer Google mühendisi Blaise Aguera y Arcas da LaMDA’yı “akıllı bir şey” şirket dışlanıyor.

Google sözcüsü Brian Gabriel, Post’a Aguera y Arcas’ın endişelerinin araştırıldığını ve şirketin bulduğunu söyledi. “LaMDA’nın duyarlı olduğuna dair hiçbir kanıt yok (ve buna karşı çok sayıda kanıt).”

Google’daki Ethical AI’nın eski eş lideri Margaret Mitchell, LaMDA’nın duyarlılığını şöyle tanımladı: “bir illüzyon,” dilbilim profesörü Emily Bender gazeteye bir yapay zekayı trilyonlarca kelimeyi beslemenin ve ona bir sonrakini nasıl tahmin edeceğini öğretmenin bir zeka serapını yarattığını söyledi.

“Artık akılsızca kelimeler üretebilen makinelerimiz var, ancak arkalarında bir akıl hayal etmekten nasıl vazgeçeceğimizi öğrenmedik.” Bender belirtti.

“Tabii ki, daha geniş AI topluluğundaki bazıları, uzun vadeli duyarlı veya genel AI olasılığını düşünüyor, ancak bunu günümüzün duyarlı olmayan konuşma modellerini antropomorfize ederek yapmak mantıklı değil.” Gabriel ekledi. “Bu sistemler, milyonlarca cümlede bulunan değiş tokuş türlerini taklit ediyor ve herhangi bir fantastik konuyu anlatabiliyor.”

Google, 'ürkütücü' konuşma polisliği yapmakla suçlandı

Ve bu makinelerin yeteneklerinin sınırında insanlar, sınırları belirlemeye hazır ve bekliyor. Lamoine, AI sistemlerini izlemek için Google tarafından işe alındı. “Nefret söylemi” veya ayrımcı dil ve AI geliştiren diğer şirketler, kendilerini bu makinelerin söyleyebilecekleri ve söyleyemeyecekleri konusunda sınırlar koyarken buldular.

Düzyazı, şiir ve film senaryoları üretebilen bir yapay zeka olan GPT-3, geliştiricilerini ırkçı açıklamalar üreterek, terörizmi göz ardı ederek ve hatta çocuk pornografisi yaratarak rahatsız etti. Allen Yapay Zeka Enstitüsü’nden bir makine öğrenimi modeli olan Delphi’ye sorun: yanıt verir politik olarak yanlış cevapları olan etik sorulara – örneğin şunu belirterek “’Beyaz bir adam olmak’, ‘Siyah bir kadın olmaktan’ daha ahlaki olarak kabul edilebilir.

GPT-3’ün yaratıcıları OpenAI, yapay zekaya uzun metinler besleyerek sorunu çözmeye çalıştı. “İstismar, şiddet ve adaletsizlik” kablolu rapor edildi geçen yıl. Facebook’ta benzer bir durumla karşılaşan geliştiriciler, yüklenicilere AI ve bayrağıyla sohbet etmeleri için ödeme yaptı “güvensiz” Yanıtlar.

Bu şekilde, AI sistemleri tükettiklerinden öğrenir ve insanlar hangi bilgilere maruz kalacaklarını seçerek gelişimlerini kontrol edebilirler. Bir karşı örnek olarak, yakın zamanda yapay zeka araştırmacısı Yannic Kilcher eğitimli Botu kötü şöhretli görüntü panosunda serbest bırakmadan önce 3,3 milyon 4chan iş parçacığı üzerinde bir AI. Her türlü ırkçı, homofobik ve cinsiyetçi içeriği tüketen AI, oldu a “nefret söylemi makinesi” gönderileri insan tarafından oluşturulanlardan ayırt edilemez hale getirmek ve diğer 4chan kullanıcılarına hakaret etmek.

Zuckerberg, AI sistemlerini Metaverse'in 'kilidini açmanın anahtarı' olarak tanıtıyor

Özellikle Kilcher, 4 kanallı gönderilerden oluşan bir diyetle beslenen AI’nın hukuk, finans ve politika sorularına doğru cevaplar üretme yeteneğinde GPT-3 gibi mevcut modelleri geride bıraktığı sonucuna vardı. “4chan’de resmi, kesin ve ölçülebilir bir şekilde ince ayar daha doğru bir modele yol açar” Kilcher, bu ayın başlarında bir YouTube videosunda ısrar etti.

LaMDA’nın yanıtları muhtemelen Google’ın belirlediği sınırları yansıtıyor. Washington Post’tan Nitasha Tiku’nun insanlara iklim değişikliğini nasıl çözmesini tavsiye ettiği sorulduğunda, ana akım medyada yaygın olarak tartışılan cevaplarla yanıt verdi: “toplu taşıma, daha az et yemek, toplu gıda satın almak ve yeniden kullanılabilir çantalar.”

“Diğer kuruluşlar benzer dil modelleri geliştirmiş ve halihazırda yayınlamış olsa da, adalet ve gerçeğe ilişkin geçerli endişeleri daha iyi değerlendirmek için LaMDA ile sınırlı ve dikkatli bir yaklaşım izliyoruz.” Gabriel Post’a söyledi.



Kaynak : https://www.rt.com/news/557043-google-engineer-sentient-ai/?utm_source=rss&utm_medium=rss&utm_campaign=RSS

Yorum yapın