sesli sohbet

Yapay Zeka Dilde Ustalaşıyor. Söylediklerine Güvenmeli miyiz?


Altman, “Bence bu, güvenlik sorunları konusunda daha düşünceli ve daha dikkatli olmamızı sağlıyor” diyor. ”Stratejimizin bir parçası şudur: Dünyadaki kademeli değişim, ani değişimden iyidir.” Veya OpenAI Başkan Yardımcısı Mira Murati’nin dediği gibi, güvenlik ekibinin yazılıma açık erişimi kısıtlayan çalışmalarını sorduğumda, ”Eğer bu güçlü teknolojileri nasıl kullanacağımızı öğreneceğiz, riskler çok düşükken başlayalım.”

GPT-3’ün kendisi Iowa süper bilgisayar kümesindeki 285.000 CPU çekirdeği üzerinde çalışan OpenAI, San Francisco’nun Mission Bölgesi’nde yenilenmiş bir bagaj fabrikasında faaliyet gösteriyor. Geçen yılın Kasım ayında, GPT-3’ün gerçekte nasıl çalıştığına dair sıradan bir kişinin açıklamasını ortaya çıkarmaya çalışırken Ilya Sutskever ile orada buluştum.

“İşte GPT-3’ün altında yatan fikir,” dedi Sutskever dikkatle, sandalyesinde öne doğru eğilerek. Soruları ilginç bir şekilde yanıtlıyor: Birkaç yanlış başlangıç ​​- “Size istediğinizle neredeyse eşleşen bir tanım verebilirim” – sanki tüm yanıtı haritada çiziyormuş gibi uzun, düşünceli duraklamalarla kesintiye uğradı. ilerlemek.

“GPT-3’ün altında yatan fikir, sezgisel bir anlayış kavramını mekanik olarak ölçülebilen ve anlaşılabilen bir şeyle ilişkilendirmenin bir yoludur,” dedi sonunda, “ve metindeki bir sonraki kelimeyi tahmin etme görevi budur. Yapay zekanın diğer biçimleri, dünya hakkındaki bilgileri sabit kodlamaya çalışır: büyük ustaların satranç stratejileri, klimatoloji ilkeleri. Ancak GPT-3’ün zekası, eğer zeka bunun için doğru kelimeyse, aşağıdan yukarıya doğru gelir: bir sonraki kelime tahmininin temel eylemi yoluyla. GPT-3’ü eğitmek için, modele bir “istem” verilir – örneğin bir gazete makalesinden, bir romandan veya bilimsel bir makaleden birkaç cümle veya metin metni – ve ardından, olası kelimelerin bir listesini önermesi istenir. olasılığa göre sıralanan diziyi tamamlayabilir. Eğitimin ilk aşamalarında önerilen kelimeler anlamsızdır. Algoritmayı “Yazar ilk sözün son kelimesini atlamış” gibi bir cümle ile yönlendirin. . . ” ve tahminler bir tür saçmalık akışı olacak: ”uydu”, ”köpek yavrusu”, ”Seattle”, ”bu nedenle”. liste — doğru eksik kelime belirir: ”paragraf.” Yazılım daha sonra o belirli öneriyi oluşturan rastgele sinir bağlantılarını güçlendirir ve yanlış tahminler üreten tüm bağlantıları zayıflatır. Ve sonra bir sonraki komut istemine geçer. Zamanla, yeterli yinelemeyle yazılım öğrenir.

Geçtiğimiz Ocak ayında, OpenAI, kullanıcıların basit bir metin pasajı üzerinde genişletmesini istemek yerine, GPT-3’e doğrudan talimat vermelerini sağlayan bir özellik ekledi. Örneğin, ”instruct” modunu kullanarak, bir keresinde GPT-3’e şu komutu verdim: ”Italo Calvino’nun çalışmasında üstkurmacanın rolünü tartışan bir deneme yazın.” – aşağıdaki gibi başlayan paragraf özeti:

İtalyan yazar Italo Calvino, yazarın yazma eylemini tartışmak için dördüncü duvarı kırdığı bir yazı türü olan üstkurmaca ustası olarak kabul edilir. Calvino için üstkurmaca, gerçekliğin doğasını ve hikayelerin dünyaya dair algılarımızı nasıl şekillendirebileceğini keşfetmenin bir yolu. Romanları genellikle gerçeklik ve kurgu arasındaki sınırlarla oynayan eğlenceli, labirent yapıları içerir. Örneğin, bir kış gecesi If’te bir gezgin, okuma eylemi ve hikaye anlatıcılığının doğası hakkında meta-düzey tartışmalarla sürekli olarak okuyucunun sözünü keser. . . .

GPT-3’e tam olarak aynı istemi defalarca verebilirsiniz ve her seferinde benzersiz bir yanıt üretecektir, bazıları diğerlerinden daha ikna edicidir, ancak neredeyse hepsi dikkat çekici bir şekilde ifade edilebilir. Talimat istemleri her türlü formda olabilir: ”Bana Bolognese sosundaki tüm malzemelerin bir listesini ver” ”John Ashbery tarzında bir Fransız sahil köyü hakkında bir şiir yaz” ”Büyük Patlamayı Açıkla” 8 yaşındaki bir çocuğun anlayacağı dilde.” Bu türden GPT-3 komutlarını ilk birkaç kez beslediğimde, omurgamdan aşağı gerçek bir ürperti hissettim. Bir makinenin, tamamen bir sonraki kelime tahmininin temel eğitimine dayalı olarak bu kadar net ve duyarlı metin üretmesi neredeyse imkansız görünüyordu.

Ancak AI, malları gerçekten teslim etmeden zeka veya anlayış yanılsaması yaratma konusunda uzun bir geçmişe sahiptir. İçinde çok tartışılan kağıt Geçen yıl yayınlanan, Washington Üniversitesi dilbilim profesörü Emily M. Bender, eski Google araştırmacısı Timnit Gebru ve bir grup ortak yazar, büyük dil modellerinin sadece “rastgele papağanlar” olduğunu açıkladılar: yani, yazılım kullanıyordu. Yalnızca insan tarafından yazılan cümleleri yeniden karıştırmak için rastgeleleştirme. Bender geçenlerde e-posta yoluyla bana, ” Değişen şey, ‘AI’ eşiğinin üzerinde bir adım değil,” dedi. Bunun yerine, değişen şeyin “muazzam veri setlerinin toplanmasına ve işlenmesine izin veren donanım, yazılım ve ekonomik yenilikler” ve “bu tür şeyleri inşa eden ve satan insanların elde edebileceği bir teknoloji kültürü” olduğunu söyledi. onları kürlenmemiş verilerin temelleri üzerine inşa etmekten uzak.”

Yoruma kapalı.

Bu web sitesi deneyiminizi geliştirmek için çerezleri kullanır. Bununla iyi olduğunuzu varsayacağız, ancak isterseniz vazgeçebilirsiniz. Kabul etmek Mesajları Oku