TEKNOLOJİ

Soruşturma, AI chatbot endüstrisinin karanlık tarafını ortaya koyuyor

A Zaman araştırması AI chatbot endüstrisinin karanlık tarafını ortaya çıkardı ve en az bir girişimin teknolojisini geliştirmek için şüpheli uygulamaları nasıl kullandığını vurguladı.

Çarşamba günü yayınlanan Time’ın raporu, Microsoft destekli OpenAI ve son derece doğal konuşma metinleri üretme konusundaki olağanüstü yeteneği nedeniyle son zamanlarda çok dikkat çeken bir teknoloji olan ChatGPT sohbet robotuna odaklanıyor.

Time’ın araştırması, AI teknolojisini eğitmek için OpenAI’nin Kenya’daki bir ekibin hizmetlerini kullanarak çocukların cinsel istismarı, hayvanlarla cinsel ilişki, cinayet, intihar, işkence, kendine zarar verme ve ensest gibi rahatsız edici konuları içeren metinleri incelediğini ortaya çıkardı. Ve iğrenç içeriği etiketleme çabaları için, ekipteki birçok kişi saatte 2 dolardan az aldı.

Kasım 2021’de başlayan çalışma, ChatGPT’nin selefi GPT-3’ün etkileyici olmasına rağmen, eğitim veri kümesi web’in her köşesinden yüz milyarlarca kelime kazınarak derlendiği için rahatsız edici içerik yayma eğiliminde olduğundan gerekliydi. .

San Francisco firması Sama tarafından işletilen Kenya merkezli ekip, OpenAI’nin sohbet robotunu eğitmeye yardımcı olmak için saldırgan içeriği etiketleyecek, böylece veri setini iyileştirecek ve sakıncalı çıktı alma şansını azaltacaktı.

Time, görüştüğü Sama çalışanlarının dördünün de işlerinden dolayı zihinsel olarak yaralandıklarını anlattıklarını söyledi. Sama danışmanlık seansları teklif etti, ancak çalışanlar bunların etkisiz olduğunu ve işin talepleri nedeniyle nadiren gerçekleştiğini söylediler, ancak bir Sama sözcüsü Time’a terapistlere her an erişilebileceğini söyledi.

Bir işçi Time’a şok edici materyali okumanın bazen “işkence” gibi hissettirdiğini ve hafta sonuna kadar “rahatsız” hissettiklerini söyledi.

Şubat 2022’de OpenAI, Kenya ekibinin cinsel ve şiddet içeren görüntüler toplamasını gerektiren ChatGPT ile ilgisi olmayan ayrı bir proje başlattığında Sama için işler daha da karanlık bir hal aldı. OpenAI, Time’a AI araçlarını daha güvenli hale getirmek için çalışmanın gerekli olduğunu söyledi.

Bu görüntü tabanlı projenin başlamasından sonraki haftalar içinde, görevlerin endişe verici doğası, Sama’yı OpenAI ile olan tüm sözleşmelerini iptal etmeye sevk etti, ancak Time, benzer bir konuyla ilgili bir raporun PR serpintisinden de istenmiş olabileceğini öne sürüyor. yaklaşık aynı zamanlarda Facebook hakkında yayınlandı.

Open AI, Time’a Sama’dan toplamasını istediği görüntülerin doğası hakkında “bir iletişim hatası” olduğunu söyledi ve en aşırı görüntüleri istemediğini ve gönderilenlerin hiçbirini görmediğini vurguladı.

Ancak sözleşmelerin sona ermesi, Kenya’daki ekibin bir kısmı işlerini kaybederken, diğerleri daha düşük ücretli projelere kaydırılarak işçilerin geçim kaynaklarını etkiledi.

Zaman soruşturması son zamanlarda teknoloji endüstrisini çok heyecanlandıran yapay zeka destekli sohbet robotlarına giden iş türüne rahatsız edici ama önemli bir bakış sunuyor.

Dönüştürücü ve potansiyel olarak faydalı olsa da, teknoloji açıkça bir insani maliyete sahip ve şirketlerin yeni teknolojilerini nasıl geliştirdikleri ve daha genel olarak daha zengin ülkelerin daha az arzu edilen görevleri daha fakir uluslara nasıl dağıtmaya devam ettiği hakkında bir dizi etik soru ortaya atıyor. daha düşük bir finansal harcama için.

Teknolojinin arkasındaki girişimler, önümüzdeki aylarda ve yıllarda daha odaklı bir incelemeye tabi tutulacak ve bu nedenle, uygulamalarını ilk fırsatta gözden geçirip iyileştirmeleri iyi olacaktır.

Digital Trends, Time’ın raporu hakkında yorum yapmak için OpenAI’ye ulaştı ve haber aldığımızda bu makaleyi güncelleyeceğiz.

Editörlerin Önerileri






daha fazla bilgi

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu