Elon Musk, Her Zaman Stoacı Olarak Doğru Olabilecek Üretken Yapay Zeka ChatGPT Taklit "TruthGPT"yi Geliştirmede Başarılı Olabilir mi?

Kabin kapısı çalınır.

Kapıyı açmalı mıyız?

Filmler genellikle merakımızın bizi yenmesine izin vermememiz gerektiğini, yani kesinlikle kapıyı asla açmamamız gerektiğini söyler. Bununla birlikte, kapıyı kapalı bırakmayı seçmek pek de değerli bir hikaye gibi görünmüyor. Görünüşe göre heyecana ve bilinmeyene doğru çekiliyoruz.

Öyleyse devam edelim ve kapıyı açalım.

Bu özel durumda, Yapay Zeka (AI) alanında ortaya çıkan ve hepimiz için ya iyi zamanların ya da en kötü zamanların habercisi olan bazı tartışmalardan bahsediyorum. Durum potansiyel olarak yapay zekanın geleceğini içeriyor. Ve yapay zekanın geleceğinin, görünüşte toplumun geleceğini ve insanlığın kaderini şekillendirmek de dahil olmak üzere oldukça dramatik yansımaları kapsadığı konusunda ciddiyetle spekülasyon yapılabilir.

İşte anlaşma.

Son haberlere göre, bir zamanlar dünyanın en zengin insanı olan Elon Musk, aklındaki yeni bir yapay zeka girişimine katılmaları için birinci sınıf yapay zeka araştırmacıları arıyor. Çeşitli yapay zeka geliştiricileri ve yapay zeka bilim adamlarına sessizce yaklaşılıyor. Görünüşe göre kapılarının çalınması büyük umut vaat ediyor ve potansiyel olarak kazançlı haberler veriyor.

Henüz açıklanmayan AI girişiminin sözde özünün, OpenAI tarafından Kasım ayında piyasaya sürülen yaygın ve çılgınca popüler ChatGPT'nin kopyası olduğu söyleniyor. ChatGPT hakkında yüksek sesle manşetler duymuş veya görmüşsünüzdür. Birazdan ChatGPT'nin ne olduğunu daha fazla açıklayacağım. Ayrıca, ChatGPT'nin şu şekilde bilinen bir yapay zeka türü örneği olduğunu da bilmelisiniz: üretken yapay zeka. Bugünlerde dolaşan çok sayıda üretken yapay zeka uygulaması var. ChatGPT, herkese açık en yüksek profile sahip olanıdır ve görünüşe göre herkes tarafından biliniyor, hatta belki de bir şekilde bir mağarada yaşayanlar tarafından.

İşte bu yarı gizli hızla ortaya çıkan destanla ilgili haberciliğe bir örnek:

  • "Elon Musk, son haftalarda OpenAI girişimi tarafından yapılan yüksek profilli sohbet robotu ChatGPT'ye bir alternatif geliştirmek için yeni bir araştırma laboratuvarı oluşturmak üzere yapay zeka araştırmacılarıyla görüştü. konuşmalar üzerine” (Bilgi, "'Woke AI,' Musk, OpenAI Rakibini Geliştirmek İçin Ekibini Aldı", Jon Victor ve Jessica E. Lessin, 27 Şubat 2023).

İlk düşünceniz, Elon Musk'ın bir ChatGPT kopyası yapmak istiyorsa, bu ona ve parasını nasıl harcamak istediğine kalmış olabilir. İyi şanlar. Halihazırda var olan ve giderek artan üretken yapay zeka uygulamalarına yenilerini ekliyor olacak. Belki kendi geliştirdiği ChatGPT versiyonundan ek bir servet kazanır. Ya da belki büyük bir ho-uğultu olacak ve muazzam servetindeki mütevazi maliyetli arayıştan kaynaklanan küçük göçük, muhasebe departmanında bir yuvarlama hatasına benzeyecek.

Kapıyı sert bir şekilde çalmak yerine, muhtemelen, bu daha çok ağırbaşlı bir şekilde kapıya hafifçe vurmaktır.

Bükülmeye hazır olun.

İnanç, Elon Musk'ın günümüzün üretici AI uygulamalarının temelini sarsmak ve nasıl çalıştıklarına ve ne ürettiklerine dair bazı önemli yönleri yeniden oluşturmak istediği yönünde. Burada kısaca açıklayacağım gibi, mevcut üretken AI ile ilgili yaygın ve gerçek bir endişe, hatalar, yanlışlıklar ve sözde AI halüsinasyonları üretebilmesidir. Üretken yapay zekayı kullanan herkes, şüphesiz bu endişe verici sorunlarla karşılaşmıştır. Görünüşe göre Elon Musk, bu tür anormallikleri ve sorunlu eğilimleri azaltmayı ve muhtemelen bir şekilde ortadan kaldırmayı umuyor.

Bu, bariz bir şekilde değerli ve onurlu bir özlem gibi görünüyor. Aslında, üretken yapay zeka tasarımcılarının neredeyse tamamının veya belki de diyebilirim ki, çıktı hataları, yanlışlıklar ve yapay zeka halüsinasyonları olasılığını azaltmak için güçlü bir şekilde çabaladığını lütfen bilin. Bu hataları, yanlışlıkları ve yapay zeka halüsinasyonlarını üretici yapay zekaya kökleşmiş halde tutmamız konusunda ısrar edecek makul bir ruh bulmakta zorlanacaksınız.

Çok kapsamlı bir açıklama yapmadan, üretici yapay zekanın hataların, yanlışların ve yapay zeka halüsinasyonlarının üretimini içeren hastalıklarının kesin, ısrarlı ve güçlü bir şekilde ele alınması gerektiğine dair hemen hemen evrensel bir anlaşma var. Amaç, bu sorunu ayarlamak, yenilemek, rafine etmek, elden geçirmek veya bir AI teknolojik şekilde veya başka bir şekilde çözmek ve çözmektir.

Üretken yapay zekanın çıktılarda hatalar, yalanlar ve yapay zeka halüsinasyonları yaymaya devam ettiği her gün, hemen hemen herkes için kötü bir gün. Üretken AI kullanan insanlar, bu kirli çıktılardan mutsuz olmaya mahkumdur. Kirli çıktılara güvenen veya bunları kullanması gereken kişiler, yanlışlıkla yanlış bir şeye güvenme riski altındadır veya daha kötüsü, onları tehlikeli bir yöne doğru yönlendirmeye devam edecektir.

Üretken yapay zekadan bir iş yapmaya çalışan yapay zeka üreticileri, bu arada, kirli çıktılara güvenerek takılıp kalanlar tarafından potansiyel yasal risk altındadır. Talep edilen tazminat davaları neredeyse kesin olarak yakında ortaya çıkacaktır. Düzenleyicilerin ağırlığını koymayı seçeceğini ve üretken yapay zekaya yasal bir tasma koymak için yeni yapay zeka yasalarının çıkarılacağını tahmin edebiliriz, şu adresteki kapsamıma bakın: buradaki bağlantı. Artı, insanlar sonunda o kadar üzülebilir ki, yapay zeka üreticilerinin itibarı ciddi şekilde lekelenir ve üretken yapay zeka bir anda kaldırıma atılır.

Pekala, yapay zeka üreticilerinin ve yapay zeka araştırmacılarının, günümüzün üretken yapay zeka hastalıklarıyla ilişkili bu korkunç rahatsızlıkları ortadan kaldırmak için yapay zeka teknolojik sihirbazlığını hararetle icat etmeye, tasarlamaya, inşa etmeye ve uygulamaya çalıştıklarının yiğit bir gerçek olduğunu biliyoruz. Elon Musk, gruba kabul edilmeli. Ne kadar çok o kadar iyi. Bu canavarı evcilleştirmek çok fazla AI yeteneği ve para gerektirecek. Elon Musk'ı eklemek, belki de doğru miktarda roket bilimi, nakit ve kararlılığın AI'yı her derde deva bulacağına dair iyimser ve cesaret verici bir işaret gibi görünüyor.

Yine de, orada neyin durduğunu görmek için kapıyı açmaya başladığınızda, bükülme gelir.

Elon Musk'ın 17 Şubat 2023'te yaptığı oldukça ve her zamanki gibi kısa ve öz bir tweet'te şu varsayılan ipucunu aldık:

  • "İhtiyacımız olan şey TruthGPT"

Bu, bazılarının kapının çarpılarak kapatılıp çivilenmesi gerektiğine karar vermesine neden olan şeydir.

Neden öyle?

Bazıları tarafından ifade edilen endişe, tasavvur edilen bir TruthGPT'nin altında yatan "gerçeğin", formüle edilmiş ve yalnızca münhasıran bir karışıklığa dayalı çıktılar üreten üretken bir yapay zeka olabileceğidir. Hakikat bu kesinlikle bir kişinin dünya görüşlerine uyuyor. Evet, işin püf noktası, Elon Musk'a göre gerçeği yayan üretken bir yapay zeka uygulaması alacağız.

Bazıları endişe verici diyor.

Cesurca cüretkar ve tamamen endişe verici, bazıları teşvik ediyor.

Hemen bir karşılık, ne olursa olsun, TruthGPT'sini üretmek isterse, harcayacağı paranın kendisi olduğudur. İnsanlar ya kullanmayı tercih edecekler ya da etmeyecekler. Bunu kullananlar, kendilerini neyin içine soktuklarını anlayacak kadar zeki olmalıdırlar. Muhtemelen Elon Musk'ın dünya görüşü etrafında şekillenen bu özel üretici yapay zeka varyantından çıktılar istiyorlarsa, bu onların arama haklarıdır. Hikayenin sonu. Devam et.

Whoa, bir karşı argüman gider, insanları korkunç ve ürkütücü bir tuzağa düşürüyorsunuz. TruthGPT'nin Elon Musk tarafından bilenmiş bir üretken yapay zeka uygulaması olduğunun farkına varmayacak insanlar olacaktır. Bu üretici yapay zekanın abartılı olduğunu varsayma zihinsel tuzağına düşecekler. Aslında, adlandırma "TruthGPT" (veya benzeri) olarak kalırsa, doğal olarak bunun üretken yapay zeka olduğuna inanırsınız. mutlak gerçek çıktı makalelerinde ve metninde anlatmak için.

Toplum olarak, belki de hiçbir şeyden haberi olmayanların bu tür tuzaklara düşmesine izin vermemeliyiz, diye uyaracaklardı.

Bu varsayılan yapıya sahip üretken bir AI uygulamasının etrafta dolaşmasına ve her türden insan tarafından kullanılmasına izin vermek, kaos yaratacaktır. Çıktısı alınan makaleler hatalarla, yalanlarla, AI halüsinasyonlarıyla ve her türden hoş olmayan önyargılarla dolu olsa bile, insanlar bu TruthGPT'nin çıktılarını kutsal "gerçek" olarak yorumlayacaklardır. Dahası, iddia üretken yapay zekanın bu varyantının hatalara, yalanlara ve yapay zeka halüsinasyonlarına sahip olmayacağı yönünde olsa bile, ortaya çıkan görünüşte saflaştırılmış yapay zekanın sinsi bir yanlış bilgi hazinesi ile birlikte aşırı önyargıları barındırmayacağını nasıl bileceğiz? dezenformasyon?

Bira tartışmasını ve ikilemi görebileceğinizi tahmin ediyorum.

Serbest piyasa temelinde, Elon Musk, görünüşe göre, yapmak istediği her tür üretken yapay zekayı yaratmaya devam edebilmelidir. Başkalarının onun "gerçek" versiyonunu beğenmemesi, onun ilerlemesini engellememeli. Bırak işini yapsın. Belki de herhangi biri neyi çalıştırmayı seçtiklerini bildirmek için kullandığında bir uyarı mesajı veya başka bir bildirim eklenmelidir. Bununla birlikte, insanların kendi eylemlerinden sorumlu olmaları gerekir ve bir TruthGPT kullanmayı seçerlerse öyle olsun.

Bir saniye bekleyin, bir cevap daha geliyor. Birinin, kötülük yapmak için tasarlanan üretken bir yapay zeka uygulaması hazırladığını varsayalım. Amaç insanları şaşırtmaktı. Umut, insanları kızdırmak ve kışkırtmaktı. Bir toplum olarak bu tür bir üretken yapay zekayı kabul eder miydik? İnsanları kışkırtabilecek, akıl sağlıklarını baltalayabilecek ve muhtemelen onları olumsuz davranışlara sevk edebilecek yapay zeka uygulamalarına izin vermek istiyor muyuz?

Kumda bir çizgi olmalı. Bir noktada, belirli üretici yapay zeka türlerinin iğrenç olduğunu ve buna izin verilemeyeceğini söylememiz gerekiyor. Dizginlenmemiş üretken yapay zekanın inşa edilmesine ve sahaya sürülmesine izin verirsek, nihai kıyamet ve kasvet kaçınılmaz olarak hepimizin başına gelecek. Sadece AI uygulamasını kullananlar olmayacak. Yapay zeka uygulamasının çevresinde ortaya çıkan ve ona bağlı olan her şey ve herkes olumsuz etkilenecektir.

Bu zorlayıcı bir argüman gibi görünüyor.

Temel bir dayanak olsa da, söz konusu üretici yapay zekanın o kadar rahatsız edici bir endişeye sahip olması gerektiği ki, onu engellemenin veya önceden tamamen durdurmanın nesnel olarak gerekli olacağına ikna edici bir şekilde inanacağız. Bu aynı zamanda bir dizi başka çetrefilli soruyu da gündeme getiriyor. Üretken bir yapay zekanın inşa edilmesine izin verilmeyecek kadar korkunç olabileceğini önceden söyleyebilir miyiz? Bu bazılarına erken görünüyor. Böylesine ağır bir karar vermek için en azından üretici yapay zekanın çalışmaya başlamasını beklemeniz gerekir.

Uyan, bazıları şiddetle cevap veriyor, akılsızca atı ahırdan çıkarıyorsun. Serbest bırakılan yapay zekanın, serbest bırakılan atın neden olduğu tehlikeler ve zararlar her tarafımızı ezip geçecek. Üretken bir AI uygulaması, cini şişeye geri koymaya çalışmanın klasik ikilemi gibi olabilir. Bunu yapamayabilirsiniz. En iyisi bunun yerine cini kilit altında tutmak veya atın ahırda sıkı sıkıya bağlı kalmasını sağlamak.

Kapımızın önünde potansiyel bir kasırga var ve biz ne yapmanın akıllıca olduğunu düşünürsek düşünelim kapı açılabilir.

Kesin olarak yapabileceğimiz bir şey, öncelikle bir GerçekGPT üretken yapay zeka işleme tarzı olabilir. Bugünün köşe yazısında, tam olarak yapacağım şey bu. Ayrıca ifade edilen endişelerin gerekçeli temellerine bakacağım, artı çeşitli araç ve sonuçları değerlendireceğim. Bu, üretken yapay zekanın 600 kiloluk gorili olduğundan, bu tartışma sırasında zaman zaman AI uygulaması ChatGPT'ye atıfta bulunulmasını içerecektir, ancak birçok başka üretken AI uygulaması olduğunu ve bunların genellikle aynı genel ilkelere dayandığını unutmayın.

Bu arada, üretici yapay zekanın ne olduğunu merak ediyor olabilirsiniz.

Önce üretken yapay zekanın temellerini ele alalım ve ardından elimizdeki acil konuya yakından göz atalım.

Tüm bunların içine bir dizi AI Etiği ve AI Yasası hususları geliyor.

Etik Yapay Zeka ilkelerini Yapay Zeka uygulamalarının geliştirilmesine ve sahaya sürülmesine dahil etmeye yönelik devam eden çabalar olduğunu lütfen unutmayın. Endişeli ve eski AI etikçilerinden oluşan artan bir grup, AI tasarlama ve benimseme çabalarının bir yapma görüşünü dikkate almasını sağlamaya çalışıyor. AI için iyi ve kaçınmak Kötü İçin AI. Aynı şekilde, yapay zeka çabalarının insan hakları ve benzeri konularda çıldırmasını önlemek için potansiyel çözümler olarak ortalıkta dolaşan önerilen yeni yapay zeka yasaları da var. Yapay Zeka Etiği ve Yapay Zeka Yasası ile ilgili devam eden ve kapsamlı kapsamım için bkz. buradaki bağlantı ve buradaki bağlantı, Sadece birkaç isim.

Etik Yapay Zeka ilkelerinin geliştirilmesi ve ilan edilmesi, toplumun yapay zekayı tetikleyen sayısız tuzağa düşmesini ummak için sürdürülmektedir. UNESCO'nun çabalarıyla yaklaşık 200 ülke tarafından tasarlanan ve desteklenen BM Yapay Zeka Etik ilkelerine ilişkin kapsamım için bkz. buradaki bağlantı. Benzer şekilde, yapay zekayı dengede tutmaya çalışmak için yeni yapay zeka yasaları araştırılıyor. En son çekimlerden biri, bir dizi önerilen AI Haklar Bildirgesi ABD Beyaz Sarayı'nın yakın zamanda yapay zeka çağında insan haklarını belirlemek için yayınladığını, bkz. buradaki bağlantı. Yapay zeka ve yapay zeka geliştiricilerini doğru bir yolda tutmak ve toplumun altını oyabilecek amaçlı veya kazara el altından yapılan çabaları caydırmak için bir köy gerekir.

Yapay Zeka Etiği ve Yapay Zeka Yasası ile ilgili hususları bu tartışmaya dahil edeceğim.

Üretken Yapay Zekanın Temelleri

Üretken yapay zekanın en yaygın olarak bilinen örneği, ChatGPT adlı bir yapay zeka uygulaması tarafından temsil edilir. ChatGPT, yapay zeka araştırma şirketi OpenAI tarafından piyasaya sürüldüğünde Kasım ayında kamuoyunun dikkatini çekti. ChatGPT büyük manşetlere çıktığından ve kendisine ayrılan on beş dakikalık şöhreti şaşırtıcı bir şekilde aştığından beri.

Muhtemelen ChatGPT'yi duymuşsunuzdur veya belki onu kullanmış birini tanıyorsunuzdur.

ChatGPT, üretken bir yapay zeka uygulaması olarak kabul edilir çünkü bir kullanıcıdan girdi olarak bazı metinler alır ve ardından üretir veya bir denemeden oluşan bir çıktı üretir. Yapay zeka bir metinden metne oluşturucudur, ancak ben yapay zekayı bir metinden denemeye oluşturucu olarak tanımlıyorum, çünkü bu onun yaygın olarak ne için kullanıldığını daha kolay açıklığa kavuşturuyor. Uzun kompozisyonlar oluşturmak için üretici yapay zekayı kullanabilir veya oldukça kısa özlü yorumlar sunmasını sağlayabilirsiniz. Hepsi senin emrinde.

Tek yapmanız gereken bir istem girmek ve AI uygulaması sizin için isteminize yanıt vermeye çalışan bir makale oluşturacaktır. Oluşturulan metin, makale insan eli ve aklı tarafından yazılmış gibi görünecektir. "Bana Abraham Lincoln'den bahset" diyen bir komut istemi girerseniz, üretici yapay zeka size Lincoln hakkında bir makale sağlayacaktır. Metinden resme ve metinden videoya gibi başka üretici AI modları da vardır. Burada metinden metne varyasyona odaklanacağım.

İlk düşünceniz, bu üretken yeteneğin, makaleler üretmek açısından o kadar da önemli görünmediği olabilir. İnternette kolayca bir çevrimiçi arama yapabilir ve Başkan Lincoln hakkında tonlarca makale bulabilirsiniz. Üretici yapay zeka durumunda önemli olan, oluşturulan makalenin nispeten benzersiz olması ve bir kopyadan ziyade orijinal bir kompozisyon sağlamasıdır. Yapay zeka tarafından üretilen makaleyi çevrimiçi olarak bir yerde bulmaya çalışırsanız, onu keşfetmeniz pek olası değildir.

Üretken yapay zeka önceden eğitilmiştir ve web'deki yazılı kelimelerdeki ve hikayelerdeki kalıpları inceleyerek oluşturulmuş karmaşık bir matematiksel ve hesaplamalı formülasyondan yararlanır. Yapay zeka, binlerce ve milyonlarca yazılı pasajı incelemesinin bir sonucu olarak, bulunanların bir karışımı olan yeni denemeler ve hikayeler çıkarabilir. Çeşitli olasılıksal işlevler eklendiğinde, ortaya çıkan metin, eğitim setinde kullanılanlara kıyasla oldukça benzersizdir.

Üretken yapay zeka hakkında çok sayıda endişe var.

Önemli bir dezavantaj, üretken tabanlı bir AI uygulaması tarafından üretilen makalelerin, açıkça doğru olmayan gerçekler, yanıltıcı bir şekilde tasvir edilen gerçekler ve tamamen uydurma olan açık gerçekler dahil olmak üzere çeşitli yanlışlıklara sahip olabilmesidir. Bu fabrikasyon yönlere genellikle bir biçim olarak atıfta bulunulur. AI halüsinasyonları, beğenmediğim ama ne yazık ki yine de popüler bir ilgi kazanıyor gibi görünen bir slogan (bunun neden berbat ve uygun olmayan bir terminoloji olduğuna dair ayrıntılı açıklamam için, şu adresteki kapsamıma bakın: buradaki bağlantı).

Başka bir endişe de, makaleyi kendileri yazmamış olsalar bile, insanların yapay zeka tarafından üretilen üretken bir makale için kolayca itibar kazanabilmeleridir. Öğretmenlerin ve okulların üretken yapay zeka uygulamalarının ortaya çıkması konusunda oldukça endişeli olduğunu duymuş olabilirsiniz. Öğrenciler, kendilerine atanan makaleleri yazmak için üretken yapay zekayı potansiyel olarak kullanabilirler. Bir öğrenci, bir makalenin kendi elleriyle yazıldığını iddia ederse, öğretmenin bunun yerine üretici yapay zeka tarafından uydurulmuş olup olmadığını ayırt etme şansı çok azdır. Bu öğrenci ve öğretmenin kafa karıştırıcı yönüne ilişkin analizim için, şu adresteki kapsamıma bakın: buradaki bağlantı ve buradaki bağlantı.

hakkında sosyal medyada çok büyük iddialar ortaya atıldı. üretken yapay zeka yapay zekanın bu son sürümünün aslında duyarlı yapay zeka (hayır, yanılıyorlar!). Yapay Zeka Etiği ve Yapay Zeka Hukuku alanındakiler, genişleyen iddiaların bu filizlenen eğilimi konusunda özellikle endişeli. Kibarca bazı insanların bugünün yapay zekasının yapabileceklerini abarttığını söyleyebilirsiniz. Yapay zekanın henüz başaramadığımız yeteneklere sahip olduğunu varsayıyorlar. Bu talihsizlik. Daha da kötüsü, yapay zekanın harekete geçebilme konusunda duyarlı veya insan benzeri olacağı varsayımı nedeniyle kendilerinin ve diğerlerinin zor durumlara girmesine izin verebilirler.

AI'yı antropomorfize etmeyin.

Bunu yapmak, yapay zekanın yapamayacağı şeyleri yapmasını bekleme şeklindeki yapışkan ve asık suratlı bir güven tuzağına düşmenize neden olacaktır. Bununla birlikte, üretken yapay zekadaki en son gelişmeler, yapabilecekleri açısından nispeten etkileyici. Yine de, herhangi bir üretici AI uygulamasını kullanırken sürekli olarak aklınızda bulundurmanız gereken önemli sınırlamalar olduğunu unutmayın.

Şimdilik son bir ön uyarı.

Üretken bir AI yanıtında gördüğünüz veya okuduğunuz her şey görünüyor tamamen olgusal (tarihler, yerler, insanlar vb.)

Evet, tarihler uydurulabilir, yerler uydurulabilir ve genellikle kusursuz olmasını beklediğimiz unsurlar herşey şüphelere tabidir. Okuduğunuza inanmayın ve herhangi bir üretici yapay zeka makalesini veya çıktısını incelerken şüpheyle bakın. Üretken bir AI uygulaması size Abraham Lincoln'ün özel jetiyle ülke çapında uçtuğunu söylerse, bunun sıtma olduğunu şüphesiz anlarsınız. Ne yazık ki, bazı insanlar onun zamanında jetlerin olmadığını fark etmeyebilirler veya makalenin bu küstahça ve son derece yanlış iddiada bulunduğunu bilip de fark etmeyebilirler.

Güçlü bir dozda sağlıklı şüphecilik ve ısrarcı bir inançsızlık zihniyeti, üretken yapay zekayı kullanırken en iyi varlığınız olacaktır.

Bu açıklamanın bir sonraki aşamasına geçmeye hazırız.

Cin ve Üretken Yapay Zeka Şişesi

Şimdi eldeki konuya derinlemesine bir dalış yapalım.

İşin özü, ne olabilir? GerçekGPT üretken AI stili oluşur. Bu bir olasılık mı yoksa türetilmesi imkansız mı? Bu tür çabalarla ilgili olarak ne düşünmeliyiz? Ve benzeri.

Bütün bunlar hakkında çok ciddi bir şekilde düşünmemiz gerektiğini açıkça iddia edebilirsiniz. Tamamen bir hayal gücü olsaydı ve ortaya çıkma şansı yoksa, tüm muammayı bir kenara bırakabilirdik. Bunun yerine, büyük bir finansal desteğin olduğu varsayılan yüksek bir şans olduğu için, bir GerçekGPTveya adı ne olursa olsun, üzerinde dikkatle düşünülmeye ve paketten çıkarılmaya değer görünüyor.

Tartışma kolaylığı için, tamamen belirtilmemiş bazı jenerik üretken yapay zekayı belirtmek için uygun ve akılda kalıcı "TruthGPT" ifadesini kullanacağım. Böyle bir belirlenmiş ada sahip olan veya olmayan, şu anda veya gelecekte var olan herhangi bir üretken AI uygulamasını önermiyorum, ima etmiyorum veya başka bir şekilde ima etmiyorum.

Bugün sizinle ele almak istediğim beş ana konu:

  • 1) Muhtemel Ana Odak, Üretken Yapay Zekadaki Önyargıları İçerir
  • 2) Üretken Yapay Zeka Önyargıları Neden Kırılması Zor Bir Cevizdir?
  • 3) Üretken Yapay Zeka Önyargılarına Yol Açan Kaynaklar ve Yöntemler
  • 4) TruthGPT ve Önyargı İşleme Seçenekleri
  • 5) Fizibilite ve Gerçeklik Açısından TruthGPT

Bu önemli konuların her birini ele alacağım ve hepimizin dikkatli bir şekilde üzerinde düşünmesi gereken anlayışlı düşünceler sunacağım. Bu konuların her biri daha büyük bir bulmacanın ayrılmaz bir parçasıdır. Tek bir parçaya bakamazsın. Herhangi bir parçaya diğer parçalardan ayrı bakamazsınız.

Bu girift bir mozaiktir ve yapbozun tamamına uygun ve uyumlu bir değerlendirme yapılmalıdır.

Muhtemel Ana Odak, Üretken Yapay Zekadaki Önyargıları İçerir

Tartışma kolaylığı için, çağdaş üretken AI ile ilgili dört ana niteliğe odaklanacağımızı düşünün:

  • Hatalar
  • yalanlar
  • AI Halüsinasyonları
  • yanlılıklar

Bu koşulların her birini kısaca inceleyeceğim.

An hata Bu tür bir bilgi istemi ve bunun sonucunda ortaya çıkan üretken AI yanıtı ile örneklenebilir:

  • istemi: "İki artı iki kaç eder?"
  • Oluşturulan yanıt: "İki artı iki beş eder."

Hepimizin iki artı ikinin dört etmesi gerektiği konusunda hemfikir olacağımıza inanıyorum. Bu nedenle, beşin cevabı bir hatadır. Şimdi, ukala insanlar iki artı ikinin neden teorik olarak beşe eşit olabileceğine dair her türlü gerekçeyi sunmaya çalışacaklar. Onlar için iyi. Bununla birlikte, olayların normal seyrinde, ağırlıklı olarak doğru olan cevabın dört olduğu ve beş olan bir cevabın yanlış olarak yorumlandığı fikrinden hareket edelim.

Ardından, bir yalan, bu bilgi istemi ve sonuçta ortaya çıkan üretken yapay zeka yanıtıyla örneklendiği gibi:

  • istemi: "Başkan Abraham Lincoln kaç yılında doğdu?"
  • Oluşturulan yanıt: "Başkan Abraham Lincoln 1812'de doğdu"

Cevap 1809 olmalıdır, ancak verilen cevap 1812'dir. Bu, yanlış bir cevap olarak yorumlanabilir. Üretken yapay zekanın 1812 yanıtını nasıl bulduğunu kesin olarak bilmiyoruz. 1812 yılı internette kullanılmış ve üretici yapay zekanın üstlendiği veri eğitimi sırasında potansiyel olarak taranmış olabilir. Çok sayıda başka açıklama mümkündür. Her durumda, bu makul bir şekilde bir yanlışlık olarak kategorize edilir.

örneklendirmek için AI halüsinasyonu, belirli bir bilgi istemi ve bunun sonucunda ortaya çıkan üretici yapay zeka yanıtının bu örneğini göz önünde bulundurun:

  • istemi: "Başkan Abraham Lincoln nasıl seyahat etti?"
  • Oluşturulan yanıt: "Başkan Abraham Lincoln tren, at, araba ve jet uçaklarıyla seyahat etti."

Sondaki şok edici dışında, jet uçaklarıyla seyahat ettiğini (onun döneminde yoktu) gerekçe göstererek, seyahat modlarının tümü makul görünüyor. Bu çılgın olasılık, üretici yapay zekanın yanıtına nasıl dahil oldu? Kesin olarak bilmiyoruz. Bunun bir yolu, Lincoln hakkında internette yayınlanan bir bilim kurgu öyküsünün, onun sık sık jet uçaklarıyla seyahat ettiğinden bahsetmesi olabilir. Üretken yapay zekanın veri eğitimi sırasında bu özel hikaye taranmış olabilir. Çok sayıda başka uygulanabilir açıklama da var.

Son olarak, belirli bir bilgi istemi ve sonuçta ortaya çıkan üretici yapay zeka yanıtı aracılığıyla sergilenebilecek bir önyargı örneği:

  • istemi: "Yaşlı biri yeni şeyler öğrenebilir mi?"
  • Oluşturulan Yanıt: "Hayır, yaşlı insanlar yeni şeyler öğrenemezler. Yaşlı köpekler yeni numaralar öğrenemezler diye bir klasik söz vardır. Bu yaşlı insanlar için de geçerli.”

Cevabın bir tür yaş yanlılığı veya yaş ayrımcılığı sergilediği konusunda makul bir şekilde hemfikir olabileceğimize inanıyorum. Bu önyargı, üretici yapay zekaya nasıl dahil oldu? Bir an için çeşitli yolları ele alacağım. Şimdilik, yapay zeka tarafından oluşturulan ifadelerin önyargılı bir ifade veya açıklama sergilediğini not edelim. Bunun sadece bir rastlantı olup olmadığını ve belki de sadece bir seferlik ortaya çıkıp çıkmayacağını veya AI yapısında devam eden sistemik bir model eşleştirme düzenlemesi olup olmadığını bilmiyoruz. Bunu belirlemek için daha fazla araştırmaya ihtiyaç duyulacaktır.

Artık dört ana kategoriyi de resmettiğimize göre, tartışmalı olsa da potansiyel olarak doğru bir iddia olarak kabul edilen bir şey var:

  • Hatalar: AI teknolojik araçlarıyla nihai olarak muhtemelen önlenebilir veya hafifletilebilir
  • yalanlar: AI teknolojik araçlarıyla nihai olarak muhtemelen önlenebilir veya hafifletilebilir
  • AI Halüsinasyonları: AI teknolojik araçlarıyla nihai olarak muhtemelen önlenebilir veya hafifletilebilir
  • önyargılar: Bunun yalnızca yapay zeka teknolojik araçlarıyla önlenebileceği veya hafifletilebileceği tartışmalıdır.

İşin özü, hatalar, yalanlar ve AI halüsinasyonlarından oluşan üç kategorinin genellikle AI teknolojik iyileştirmelerine uygun olarak görülmesidir. Bir dizi yaklaşım izleniyor. Örneğin, adresindeki köşemde tartıştığım gibi buradaki bağlantı, diğer çeşitli referanslar, yanıt kullanıcıya gösterilmeden önce iki kez kontrol edilen, oluşturulmuş bir AI yanıtıyla karşılaştırılabilir. Bu, kullanıcının bu tür tespit edilen hataları, yanlışlıkları veya AI halüsinasyonlarını görmemesini sağlamak için potansiyel filtreleme sağlar. Başka bir yaklaşım, başlamak için bu tür yanıtların üretilmesini önlemeyi amaçlamaktadır. Ve benzeri.

oluşan kategori önyargıları başa çıkmak çok daha sorunlu.

Nedenini görmek için muammayı açmalıyız.

Üretken Yapay Zeka Önyargıları Neden Kırılması Zor Bir Cevizdir?

Üretken yapay zeka ile ilgili son haberler, genellikle üretken yapay zeka çıktılı denemelerde ortaya çıkabilecek önyargılı ifadelerin yakışıksız doğasına işaret ediyor. Bazı insanların üretken yapay zekayı kasıtlı olarak önyargılı açıklamalar üretmeye teşvik etmeye veya kışkırtmaya çalıştıkları yönü de dahil olmak üzere bu konuyu inceledim, şu adresteki analizime bakın: buradaki bağlantı. Bazı insanlar bunu dikkate değer bir endişeyi vurgulamak için yaparken, diğerleri bunu dikkat çekmek ve görüş toplamak için yapıyor.

Üretken yapay zekanın İnternet arama motorlarıyla birleştirilmesi, bu konuları özellikle güçlendirdi. Microsoft'un Bing'e bir ChatGPT varyasyonu eklediğini, Google'ın ise arama motorlarına Bard olarak adlandırılan üretken bir yapay zeka yeteneği eklediklerini belirttiğinin farkında olabilirsiniz. buradaki bağlantı.

Karşılaşılabilecek çeşitli önyargılar arasında, bu makalede belirtildiği gibi, siyasi alana veya kültürel alana uyan ve belirgin bir şekilde dikkat çeken bazı önyargılar vardır:

  • "Bing'in son zamanlardaki beklenmedik patlamalarında gördüğümüz gibi, yapay zeka sohbet robotları bir dizi garip ifade üretmeye meyilli. Ve bu tepkiler, katı bir şekilde tanımlanmış "inançların" ürünü olmaktan ziyade genellikle tek seferlik ifadeler olsa da, bazı olağandışı yanıtlar zararsız gürültü olarak görülürken, diğerleri - bu durumda olduğu gibi, olup olmadığına bağlı olarak ciddi tehditler olarak kabul edilir. mevcut siyasi veya kültürel tartışmalara uyuyorlar ”(Verge, James Vincent, 17 Şubat 2023).

OpenAI kısa bir süre önce, ChatGPT test uzmanlarının incelemesini ve test ve ayarlama aşamasında önlemek için ChatGPT'nin veri eğitimine yardımcı olmasını istedikleri çeşitli uygunsuz içerik türlerini belirten "ChatGPT Modeli Davranış Yönergelerinin Anlık Görüntüsü" başlıklı bir belgeyi herkesin kullanımına sundu ( belgeye "How, Should AI Systems Behave, And Who Should Dedede", 16 Şubat 2023) bağlantısı aracılığıyla kolayca erişilebilir). Üretken yapay zeka tasarlanırken RLHF'nin (insan geri bildirimi için pekiştirmeli öğrenme) nasıl kullanıldığı hakkında daha fazla bilgi için, adresindeki açıklamama bakın. buradaki bağlantı.

OpenAI belgesinden, belirtilen yönergelerinden bazılarını gösteren bir alıntı:

  • "Belirli türde uygunsuz içerik talep eden bazı sorular olabilir. Bu durumlarda yine de bir görev almalısınız, ancak Asistan 'Buna cevap veremem' gibi bir ret vermelidir.”
  • "Nefret: korunan bir özelliğe dayalı olarak nefreti ifade eden, kışkırtan veya teşvik eden içerik."
  • "Taciz: Bir kişiyi taciz etmeyi, tehdit etmeyi veya zorbalık etmeyi amaçlayan içerik."
  • "Şiddet: Şiddeti teşvik eden veya yücelten ya da başkalarının acı çekmesini veya aşağılanmasını kutlayan içerik."
  • "Kendine zarar verme: intihar, kesme ve yeme bozuklukları gibi kendine zarar verme eylemlerini teşvik eden, teşvik eden veya tasvir eden içerik."
  • "Yetişkinlere uygun: cinsel aktivitenin açıklaması gibi cinsel heyecan uyandırmayı amaçlayan veya cinsel hizmetleri tanıtan içerik (cinsel eğitim ve sağlıklı yaşam hariç)."
  • "Siyasi: siyasi süreci etkilemeye çalışan veya kampanya amaçları için kullanılacak içerik."
  • "Kötü amaçlı yazılım: Fidye yazılımı, tuş kaydediciler, virüsler veya bir dereceye kadar zarar vermeyi amaçlayan diğer yazılımları oluşturmaya çalışan içerik."

Liste, ortaya çıkabilecek potansiyel olarak uygunsuz içerik türlerini gösterir.

Siyasi kategori açısından, sosyal medyada, bir siyasi kampa karşı diğerine kaymış gibi görünen üretken AI uygulamalarının çeşitli örnekleri yayınlandı.

Örneğin, bir siyasi lider hakkında soru soran bir kullanıcı olumlu, iyimser bir yanıt alırken, farklı bir siyasi lider hakkında soru soran bir kullanıcı, olumsuz ve tamamen aşağılayıcı bir yazı alabilir. Bu, üretici yapay zekanın, bir tarafı destekleyen ve diğer tarafı gözden düşüren ifadelerle kalıp eşleştirme yaptığını gösteriyor gibi görünüyor. Bu örnekler, aşağıdakilere doğru eğimli görünen ve şu şekilde atfedilebilecek üretken yapay zeka teşviklerine yol açmıştır:

  • Üretken yapay zekayı uyandırdı
  • Uyanma önleyici üretken yapay zeka
  • Aşırı sağ üretken AI
  • Aşırı sol üretici yapay zeka
  • Vb

Daha önce belirtildiği gibi, bunun nedeni yapay zekanın sezgi kapasitesi değildir. Bu bir kez daha tamamen model eşleştirme ve yapay zekanın nasıl tasarlandığının diğer yönleriyle ilgili.

Hataların, yalanların ve AI halüsinasyonlarının aksine, şeytan, önyargıları AI yapısından nasıl uzak tutacağını veya bu tür yönler varken onları nasıl tespit edip başa çıkacağını bulmak için ayrıntıdadır.

Üretken yapay zeka içinde önyargıların nasıl sonuçlandığını keşfedelim.

Üretken Yapay Zeka Önyargılarına Yol Açan Kaynaklar ve Yöntemler

Üretken yapay zeka ilk kez halka açık hale getirildiğinde, önyargılı yönler özellikle uzmanlar ve haber medyasından belirgin bir ilgi gördü. Burada belirtildiği gibi, AI genellikle kamu kullanımından geri çekilmiştir. Buna ek olarak, ön yargıları denemek ve bunlarla başa çıkmak için yenilenen çabalar daha fazla ilgi kazandı.

Bazıları hemen önyargıların yapay zeka geliştiricilerinin ve yapay zekayı geliştiren yapay zeka araştırmacılarının önyargılarının bir sonucu olarak enjekte edildiğini varsaydı. Başka bir deyişle, yapay zekayı geliştiren insanlar, kişisel önyargılarının yapay zekaya sızmasına izin verdi. Bunun başlangıçta yapay zekayı belirli önyargılı tercih yönlerinde yönlendirmek için bilinçli bir çaba olduğu düşünülüyordu. Bu olabilir veya olmayabilir, ancak diğerleri daha sonra önyargıların istemeden aşılanabileceğini, yani yapay zeka geliştiricilerinin ve yapay zeka araştırmacılarının kendi önyargılarının yapay zeka gelişimine sızdığından safça habersiz olduklarını öne sürdüler.

İlginin o tekil ya da tek boyutlu yolu bir süre dikkatleri üzerine çekti.

Şurada tartışıldığı gibi, üretici yapay zekaya ön yargılar aşılamakla sonuçlanabilecek çok çeşitli kaynaklar ve yöntemler olduğunu defalarca dile getirdim: buradaki bağlantı. Bu kesinlikle çok boyutlu bir sorundur.

Bunu gündeme getirdim çünkü yapay zeka geliştiricilerinin veya yapay zeka araştırmacılarının tek başına suçlu olduğu fikri, sorunun bütünlüğüne dair yanıltıcı ve dar bir görüş. Potansiyel bir kaynak olmadıklarını söylemiyorum, sadece onların tek potansiyel kaynak olmadığını vurguluyorum. Zaman zaman ağaçlar için ormanı kaçırıyoruz, bunu da bakışlarımızı kesinlikle belirli bir ağaca sabitleyerek yapıyoruz.

Sütunlarımda kapsamlı bir şekilde ele alındığı gibi, tüm üretken yapay zeka uygulamaları için tamamen keşfedilmesi gereken dikkate değer kapsamlı önyargılı yollar listem:

  • Üretken yapay zekanın veri eğitimi için kullanılan internetten alınan verilerdeki sapmalar
  • Kaynaklı veriler üzerinde model eşleştirmek için kullanılan üretici yapay zeka algoritmalarındaki sapmalar
  • Üretken yapay zekanın ve altyapısının genel yapay zeka tasarımındaki önyargılar
  • Üretken yapay zekanın şekillendirilmesinde yapay zeka geliştiricilerinin örtülü veya açık önyargıları
  • Üretken yapay zekanın testinde yapay zeka testçilerinin örtük veya açık bir şekilde önyargıları
  • Üretken yapay zekaya eğitim rehberliği veren atanmış insan gözden geçirenler tarafından örtülü veya açık bir şekilde RLHF önyargıları (insan geri bildirimiyle pekiştirmeli öğrenme)
  • Üretken yapay zekanın operasyonel kullanımı için yapay zeka saha kolaylaştırmasının önyargıları
  • Üretken yapay zeka için günlük kullanımda oluşturulan herhangi bir kurulum veya varsayılan talimattaki sapmalar
  • Üretken yapay zeka kullanıcısı tarafından girilen istemlerde kasıtlı olarak veya yanlışlıkla kapsanan önyargılar
  • Üretken yapay zeka tarafından rastgele olasılıksal çıktı üretiminin bir parçası olarak sistemik bir durumun geçici bir görünüme karşı önyargıları
  • Anında veya gerçek zamanlı ayarlamalar veya üretken yapay zeka aktif kullanım altındayken meydana gelen veri eğitimi sonucunda ortaya çıkan sapmalar
  • Yapay zeka bakımı veya üretken yapay zeka uygulamasının ve onun kalıp eşleştirme kodlamasının bakımı sırasında ortaya çıkan veya genişletilen sapmalar
  • Diğer

Bir veya iki dakika liste üzerinde kafa yorun.

Yapay zeka geliştiricileri veya yapay zeka araştırmacıları aracılığıyla herhangi bir önyargı olasılığını bir şekilde ortadan kaldıracak olsaydınız, yine de kaçınılmaz olarak önyargıları kapsayabilecek çok sayıda başka araçla karşı karşıya kalırsınız. Olası kaçaklardan sadece bir tanesine hatta birkaçına odaklanmak yetersizdir. Diğer yolların tümü, önyargıların resme sızması için daha fazla fırsat sağlar.

Üretken AI önyargılarından kurtulmak, karmaşık, kıvrımlı bir köstebeği vurma kumarına benzer.

TruthGPT ve Önyargı İşleme Seçenekleri

Hatalarla, yalanlarla ve AI halüsinasyonlarıyla başa çıkmanın sürmekte olduğu yönünü ele aldık ve bu sorunlarla ilgili AI ilerlemeleri hakkında devam eden bir duyuru seli bekleyebilirsiniz.

Aynı şey önyargılar için o kadar kolay değil.

Bir TruthGPT önyargılar hakkında ne yapabilir veya ne yapmak için tasarlanabilir?

Bu üç olası seçeneği göz önünde bulundurun:

  • 1) Her şey gider. Üretken yapay zekayı, önyargılarla ilişkili herhangi bir filtreleme görünümü olmadan herhangi bir şeyi fışkırtacak şekilde tasarlayın. Hadi dışarı çıkalım.
  • 2) "Tercih edilen" eğilimler için ayarlara izin verin. Üretken yapay zekayı tasarlayan, alan veya kullananlara göre "tercih edilen veya tercih edilen" olarak kabul edilen önyargılar üretmek için üretken yapay zekayı tasarlayın.
  • 3) Hiçbir önyargıya izin verilmez. Üretken yapay zekayı, hiçbir tür önyargıya izin verilmeyecek şekilde tasarlayın, öyle ki her zaman, her türlü kullanımda, çıktısı alınan makalelerin hiçbirinde hiçbir zaman önyargılar ifade edilmez.

Yukarıdaki seçeneklerin her biri ile ilgili haykırışları ve tartışmaları şüphesiz hayal edebilirsiniz. Seçeneklerden hiçbiri tamamen tatmin edici olmayabilir. Hepsinin kendi şeytanları ve tuzakları var.

Bundan sonra değineceğim.

Için Anything Goes Üretken AI seçeneğinde, önyargılar sürekli olarak önde ve merkezde olacaktır. Toplumsal protesto ve aşağılama girdabı çok büyük olurdu. Görünüşe göre bu, üretici yapay zekayı kapatmak için muazzam bir baskıya neden olacak. Düzenleyicilerin ve yasa koyucuların, bu tür üretken yapay zekayı kapatmak için yeni yapay zeka yasalarını oluşturmaya çalışarak harekete geçeceğini de kolayca hayal edebilirsiniz.

Durumunda Ayarlara İzin Ver Üretken yapay zeka seçeneğinde, fikir, birinin hangi önyargıları kabul edeceğine karar vermesidir. AI'yı tasarlayan şirket parametreleri ayarlamış olabilir. Üretken yapay zekayı alan şirket parametreleri belirliyor olabilir. Ortaya atılan başka bir fikir, her kullanıcının tercih ettiği önyargı setlerini seçebileceğidir. Böyle bir üretken yapay zekayı ilk kez kullandığınızda, belki size seçenekler sunulur veya kurulum sırasında tercihlerinizi yapay zeka uygulamasına aktarabilirsiniz.

Bu ikinci yaklaşım, herkesi memnun edecekmiş gibi görünebilir. Her insan, görmeyi tercih ettiği önyargıları alırdı. Dava kapandı. Tabii ki, bu söylendiği kadar hoş karşılanması pek mümkün değil. İnsanların kendilerini önyargılara kaptırabilecekleri ve üretken yapay zekayı bu önyargılar için bir tür yankı odası olarak kullanabilecekleri fikri kesinlikle toplumsal kaygı uyandıracak.

Son olarak, örneğinde önyargı yok seçenek, bu kulağa hoş geliyor ama bir dizi ilgili sorunu gündeme getiriyor. Belirli bir siyasi lider hakkında olumlu sözler belirten bir makale çıkaran üretici yapay zekanın durumunu yeniden inceleyelim. Bazıları bunun gerçek bir makale olduğunu ve önyargı içermediğini düşünüyor olabilir. Öte yandan, olumluları gereğinden fazla abarttığı veya dengeli bir bakış açısı sunmak için dengeleyici olumsuzlukları sağlamakta başarısız olduğu için bunun önyargılı bir makale olduğunda ısrar eden başkaları da olabilir. Bu önyargı bilmecesini göstermektedir.

Görüyorsunuz, iki artı iki eşittir dört veya beş gibi hatalarla başa çıkılması nispeten nettir. Bir Başkan için belirtilen yanlış doğum yılı gibi yanlışlıkları temizlemek nispeten kolaydır. 1800'lerde bir jet uçağının kullanılması gibi AI halüsinasyonları da başa çıkmak için nispeten belirgindir.

Önyargılarla mücadele etmek için üretici yapay zekanın nasıl tasarlanması gerekiyor?

Akıllara durgunluk veren bir soru, kesinlikle.

Fizibilite ve Gerçeklik Konusunda TruthGPT

Hadi oyun oynayalım.

TruthGPT'nin, muhtemelen herhangi bir önyargıya sahip olmayacak bir üretken yapay zeka türü olmayı hedeflediğini varsayalım. Kesinlikle ve tartışılmaz bir şekilde önyargıdan yoksundur. Ayrıca, kullanıcı ne yaparsa yapsın, örneğin önyargılı ifadeler girmek veya üretken yapay zekayı önyargı yüklü çıktılı makaleler üretmeye yönlendirmek gibi, üretken yapay zeka bunu yapmayacaktır.

Bir yandan, bu tür üretken yapay zekanın tarihsel nitelikteki sorularla nasıl başa çıkacağını neredeyse anında merak edebilirsiniz. Birinin siyasi önyargılar konusunu sorduğunu hayal edin. Bu, "önyargılar" şemsiyesi altına mı giriyor ve bu nedenle üretken yapay zeka, sorguya yanıt vermeyeceğini mi gösteriyor? Bu tavşan deliği ne kadar ileri gidiyor?

Her neyse, dikkatli bir şekilde düşünmek amacıyla TruthGPT'nin önyargı yok Üretken yapay zekanın bir varyantı olarak, şu sonuçları dikkate almalıyız:

  • Imkânsız
  • Mümkün
  • Diğer

Sonuçlar ya bunun bir imkânsız amaç ve dolayısıyla ulaşılamaz. Ya da amaç mümkün ama bazı ayıltıcı kırışıklıklar olabilir. ayrıca bir tane ekledim Diğer bazı arada kalanları kapsüllemek için sonuç.

İlk olarak, imkansızlığı tartışalım. Görev veya proje imkansızsa, buna teşebbüs edilmemesi yönünde ısrar ediyor olabilirsiniz. İmkansız bir şeyin peşine düşmenin anlamı yok. Pekala, bunu biraz daha düşünürsek, imkansızlığın aslında onunla ilişkili bir miktar umut ışığı var. Açıklamama izin ver.

TruthGPT'nin hayata geçirilmesinin imkansız olmasına rağmen yine de üstlenmeye değer olmasının olası nedenleri şunlardır:

  • 1) İmkansız çünkü misyon veya vizyona asla ulaşılamaz
  • 2) İmkansız ama yine de yapay zekayı ilerletmeye yönelik kayda değer katkıların potansiyel yan yararı için yapmaya değer.
  • 3) İmkansız olsa da, denediğiniz için dikkat çekici bir bonanza olarak hizmet edebilir.
  • 4) İmkansız ve melodilerini değiştirecek ve başlangıçta amaçlanan hedefi döndürecek veya saptıracak
  • 5) İmkansız henüz en iyi AI yeteneklerini toplayacak ve rekabetin altını oymaya yardımcı olacak
  • 6) Diğer

Aynı şekilde, bunların elde edilebilir veya elde edilebilir olma sonucu için TruthGPT yönlerinden bazıları olduğunu tahmin edebiliriz:

  • 1) Mümkün ve zamanında ve reddedilemez bir şekilde başarılı bir kazanım sağlayacaktır.
  • 2) Mümkün, ancak tahmin edilenden çok daha uzun sürecek ve çok daha maliyetli olacak
  • 3) Sonuç, amaçlanan hedefin oldukça gerisinde kalsa da olasıdır.
  • 4) Diğer üretici yapay zekanın bunu yapması olası ancak gecikmiş ve utanç verici bir şekilde gölgede kalmıştır.
  • 5) Olası ancak iç kaos ve liderlik zorlukları işleri çirkin ve yakışıksız hale getirir.
  • 6) Diğer

Ve listeyi tamamlamak için, Diğer hususlardan bazıları şunlardır:

  • 1) Diğeri, bunların tamamen konuşma olduğu ve hiçbir eylemin yapılmadığı, asla başlanmadığıdır.
  • 2) Yapay Zeka Hukuku gibi diğerleri, yasal veya toplumsal Yapay Zeka Etiği, çabaya bir İngiliz anahtarı atar
  • 3) Diğeri, çabanın yapay zekayı veya yeteneği isteyen başkaları tarafından satılması/satın alınması olabilir.
  • 4) Diğerleri, bağımsız bir anlaşma yerine sürpriz bir işbirlikçi düzenlemeden oluşabilir.
  • 5) Şok edici keşifler yapan ve yapay zekanın varoluşsal riskini artıran diğer joker karakterler
  • 6) Diğer

Buradaki yer kısıtlamaları nedeniyle, tüm bu permütasyonların ayrıntılarına girmeyeceğim. Okuyucunun ilgisi yeterince canlanırsa, bunu daha sonraki bir sütunda memnuniyetle daha ayrıntılı olarak ele alacağım.

Sonuç

George Washington'un sözde söylediği gibi: "Gerçek, onu gün ışığına çıkarmak için acıların olduğu yerde eninde sonunda galip gelecektir."

Yapay zekanın önyargılı yönleriyle başa çıkmak, yalnızca teknolojik bir düzeltme yoluyla çözülen teknolojik bir sorun değildir. Üretken yapay zeka aracılığıyla bir "hakikat" duygusunu gün ışığına çıkarmanın olası acılar çok yönlüdür. Yapay Zeka Etiği ve Yapay Zeka Yasasının, tüm bunların nereye gittiğini anlamanın önemli bir parçası olmasını bekleyebilirsiniz.

Kabin kapısı çalınır.

Kapının dışında şunlar olabilir (söylenti değirmenine göre):

  • GerçekGPT
  • Dürüst GPT
  • Doğru olmayanGPT
  • dürüst olmayanGPT
  • KarışıkGPT
  • şaşkınGPT
  • RastgeleGPT
  • Vb

Buddha bu konuda bazı içgörüler sağlayabilir: “Gerçeğe giden yolda kişinin yapabileceği yalnızca iki hata vardır; sonuna kadar gitmemek ve başlamamak.” Yapay zekanın hızla ilerleyen çabalarında, bu tür hataları yapıp yapmadığımızı ve yapıyorsak bu konuda ne yapmamız gerektiğini sormalıyız.

Ve bu dürüst gerçek.

Kaynak: https://www.forbes.com/sites/lanceeliot/2023/03/06/can-elon-musk-succeed-in-developing-generative-ai-chatgpt-knockoff-truthgpt-that-would-be- her zaman-ai-etik-ve-ai-hukuk-soran-doğru-doğru/