Üretken Yapay Zeka ChatGPT, Özel ve Gizli Verilerinizi Rahatsız Edici Bir Şekilde Yıpratabilir, Yapay Zeka Etiği ve Yapay Zeka Yasasını Önceden Uyarır

Şimdi verilerinizi görüyorsunuz, şimdi görmüyorsunuz.

Bu arada, değerli verileriniz olduğu gibi kolektifin bir parçası haline geldi.

Yapay Zekadaki (AI) en son gelişmeleri hevesle ve ciddiyetle kullananlarınız için oldukça şaşırtıcı olabilecek bir yönden bahsediyorum. Bir AI uygulamasına girdiğiniz veriler potansiyel olarak tamamen size ve yalnızca size özel değildir. Verileriniz, muhtemelen AI hizmetlerini iyileştirmeye çalışmak için AI üreticisi tarafından kullanılacak veya onlar ve/veya müttefik ortakları tarafından çeşitli amaçlar için kullanılabilir.

Artık uyarıldınız.

Verilerinizin bu teslimi, en zararsız şekillerde ve potansiyel olarak binlerce veya milyonlarca insan tarafından gerçekleşiyor. Nasıl yani? Son zamanlarda büyük manşetlere çıkan ve genel olarak halkın büyük ilgisini çeken, üretken AI olarak bilinen bir AI türü var. Mevcut üretken AI uygulamalarının en dikkate değer olanı, OpenAI firması tarafından tasarlanan ChatGPT adlı uygulamadır.

ChatGPT için yaklaşık bir milyon kayıtlı kullanıcı olduğu söyleniyor. Bu kullanıcıların çoğu, bu en yeni ve en yeni üretken AI uygulamasını denemekten keyif alıyor gibi görünüyor. İşlem olağanüstü derecede basittir. Bilgi istemi olarak bir miktar metin girersiniz ve işte, ChatGPT uygulaması genellikle deneme biçiminde bir metin çıktısı oluşturur. Bazıları buna metinden metne olarak atıfta bulunur, ancak ben bunu metinden-deneme olarak belirtmeyi tercih ediyorum, çünkü bu laf kalabalığı daha gündelik bir anlam ifade ediyor.

İlk başta, acemi bir kullanıcı muhtemelen eğlenceli ve kaygısız bir şeye girecektir. Bana George Washington'un hayatından ve zamanlarından bahset, birisi istem olarak girebilir. ChatGPT daha sonra efsanevi ilk başkanımız hakkında bir makale yazacaktı. Makale tamamen akıcı olacak ve bir AI uygulaması tarafından üretildiğini anlamakta zorlanacaksınız. Gerçekleşmesini görmek heyecan verici bir şey.

Muhtemelen, bir süre etrafta oynadıktan sonra, yeni başlayan kullanıcıların bir bölümü doyacak ve potansiyel olarak ChatGPT ile oynamayı bırakmayı seçecek. Artık neredeyse herkesin hakkında gevezelik ettiği görünen AI uygulamasıyla deneyler yaptıktan sonra FOMO'larının (kaçırma korkusu) üstesinden geldiler. Tapu bitti.

Yine de bazıları üretken yapay zekayı kullanmanın diğer ve daha ciddi yollarını düşünmeye başlayacak.

Patronunuzun yazmanızı istediği notu yazmak için ChatGPT'yi kullanabilirsiniz. Yapmanız gereken tek şey, aklınızdaki madde işaretlerini içeren bir komut istemi sağlamak ve sonra bir bakıyorsunuz ki ChatGPT tarafından patronunuzun sizinle gurur duymasını sağlayacak eksiksiz bir not oluşturuldu. Çıktısı alınan makaleyi ChatGPT'den kopyalar, kelime işlem paketinizdeki şirketin resmi şablonuna yapıştırır ve klas muhtırayı yöneticinize e-postayla gönderirsiniz. Bir milyon dolar değerindesin. Ve zor işi sizin yerinize yapacak kullanışlı bir araç bulmak için beyninizi kullandınız. Sırtını sıvazla.

Hepsi bu değil.

Evet, dahası var.

Üretken yapay zekanın yazmayla ilgili bir dizi başka görevi yerine getirebileceğini unutmayın.

Örneğin, değerli bir müşteriniz için bir tür öykü yazdığınızı ve yayınlanmadan önce malzemenin gözden geçirilmesini canı gönülden istediğinizi varsayalım.

Basit.

Anlatınızın metnini bir ChatGPT istemine yapıştırır ve ardından ChatGPT'ye oluşturduğunuz metni analiz etmesi talimatını verirsiniz. Sonuçta ortaya çıkan makale, ifade tarzınızı derinlemesine inceleyebilir ve hoş bir sürprizle (bir yazım denetleyicisi veya dilbilgisi çözümleyicisi olarak hareket etmenin çok ötesine geçerek) söylediklerinizin anlamını görünüşte incelemeye çalışır. AI uygulaması, anlatımınızın mantığındaki hataları tespit edebilir veya kendi yazınızda olduğunu fark etmediğiniz çelişkileri keşfedebilir. Sanki taslağınıza göz dikmesi ve bir dizi yararlı öneri ve not edilmiş endişeler sunması için kurnaz bir insan editör tuttunuz (pekala, AI uygulamasını antropomorfize etmeye çalışmadığımı, özellikle de bir insan editörün olduğunu kategorik olarak belirtmek istiyorum. AI uygulaması yalnızca bir bilgisayar programı iken bir insan).

Değerli yazılı anlatımınızı incelemek için üretici yapay zeka uygulamasını kullandığınız için çok şükür. Belgeyi değerli müşterinize gönderdikten sonra yapay zekanın rahatsız edici yazılı sorunları bulmasını şüphesiz tercih edersiniz. Hikayeyi oldukça hayati bir tasvir tasarlamanız için sizi tutan biri için bestelediğinizi hayal edin. AI uygulama incelemesini yapmadan önce müşteriye orijinal sürümü vermiş olsaydınız, büyük bir utanç yaşayabilirsiniz. Müşteri, talep edilen işi yapma becerileriniz hakkında neredeyse kesin olarak ciddi şüpheler besleyecektir.

Bahsi yükseltelim.

Yasal belgelerin oluşturulmasını düşünün. Açıkçası bu çok ciddi bir konu. Sözcükler ve bunların nasıl oluşturulduğu, canlı bir yasal savunmayı veya kasvetli bir yasal felaketi heceleyebilir.

Devam eden araştırma ve danışmanlığımda, hukuk alanında yapay zekayı kullanmakla yakından ilgilenen birçok avukatla düzenli olarak etkileşim kuruyorum. Çeşitli LegalTech programları yapay zeka yeteneklerine bağlanıyor. Bir avukat, bir sözleşme taslağı oluşturmak veya başka yasal belgeler oluşturmak için üretici yapay zekayı kullanabilir. Ayrıca, avukat ilk taslağı kendisi yaptıysa metni ChatGPT gibi üretken bir yapay zeka uygulamasına ileterek hangi deliklerin veya boşlukların tespit edilebileceğini görebilir. Avukatların ve hukuk alanının yapay zekayı nasıl kullanmayı tercih ettiği hakkında daha fazla bilgi için şu adresteki tartışmama bakın: buradaki bağlantı.

Yine de bu konuda sürtünmeye hazırız.

Bir avukat taslak bir sözleşme alır ve metni ChatGPT istemine kopyalar. AI uygulaması, avukat için bir inceleme oluşturur. ChatGPT tarafından birkaç yakalamanın bulunduğu ortaya çıktı. Avukat sözleşmeyi gözden geçirir. Ayrıca, ChatGPT'den kendileri için oluşturulan metnin yeniden yazılmasını veya yeniden yapılmasını önermesini isteyebilirler. Ardından, üretken AI uygulaması tarafından sözleşmenin yeni ve daha iyi bir sürümü üretilir. Avukat, çıktısı alınan metni alır ve bir kelime işlem dosyasına yerleştirir. Mektubu kapalı müvekkillerine gider. Görev tamamlandı.

Az önce ne olduğunu da tahmin edebilir misin?

Perde arkasında ve kaputun altında, sözleşme bir balık gibi bir balinanın ağzına yutulmuş olabilir. Bu yapay zeka kullanan avukat bunun farkında olmasa da, ChatGPT'ye bir bilgi istemi olarak yerleştirilen sözleşme metni, potansiyel olarak yapay zeka uygulaması tarafından yutulabilir. Artık yapay zeka uygulamasının desen eşleştirmesi ve diğer hesaplama karmaşıklıkları için bir yem. Bu da çeşitli şekillerde kullanılabilir. Taslakta gizli veriler varsa, bu da potansiyel olarak artık ChatGPT'nin sınırları içindedir. AI uygulamasına sağlanan isteminiz artık görünüşte şu veya bu şekilde kolektifin bir parçası.

Ayrıca, çıktısı alınan makale de kolektifin bir parçası olarak kabul edilir. ChatGPT'den taslağı sizin için değiştirmesini ve sözleşmenin yeni sürümünü sunmasını istediyseniz, bu çıktısı alınmış bir makale olarak yorumlanır. ChatGPT'nin çıktıları da AI uygulaması tarafından tutulabilen veya başka bir şekilde dönüştürülebilen bir içerik türüdür.

Aman Tanrım, özel veya gizli bilgileri masumca vermiş olabilirsiniz. İyi değil. Ayrıca, bunu yaptığınızın farkında bile olmazsınız. Bayraklar kaldırılmadı. Korna çalmadı. Sizi gerçeğe şok edecek hiçbir yanıp sönen ışık sönmedi.

Avukat olmayanların kolayca böyle bir hata yapabileceğini tahmin edebiliriz, ancak deneyimli bir avukatın aynı çaylak hatayı yapması neredeyse hayal bile edilemez. Bununla birlikte, şu anda muhtemelen aynı potansiyel hatayı yapan hukuk uzmanları var. Avukat-müvekkil ayrıcalığının dikkate değer bir unsurunu ihlal etme ve muhtemelen Amerikan Barolar Birliği (ABA) Mesleki Davranış Modeli Kurallarını (MRPC) ihlal etme riskiyle karşı karşıyadırlar. Bilhassa: “Bir avukat, müvekkilinin bilgilendirilmiş rızası olmadıkça, beyanın ifşasına zımni olarak izin verilmedikçe veya paragraf (b) ile ifşaya izin verilmedikçe müvekkilinin temsiline ilişkin bilgileri ifşa etmeyecektir” (akt. MRPC ve b alt bölümüyle ilişkili istisnaların, üretken bir yapay zeka uygulamasının güvenli olmayan bir şekilde kullanılmasını kapsamadığı görülüyor).

Bazı avukatlar, teknoloji sihirbazı olmadıklarını ve üretken bir yapay zeka uygulamasına gizli bilgileri girmelerinin bir şekilde bir tür ihlal olabileceğini bilmek için hazır araçları olmadığını iddia ederek ihlallerini mazur göstermeye çalışabilirler. ABA, avukatların bir görevinin yasal açıdan yapay zeka ve teknoloji konusunda güncel olmayı kapsadığını açıkça belirtti: "Gerekli bilgi ve beceriyi sürdürmek için, bir avukat yasadaki ve uygulamasındaki değişiklikleri takip etmelidir. ilgili teknolojiyle ilişkili faydalar ve riskler, sürekli çalışma ve eğitimle meşgul olun ve avukatın tabi olduğu tüm sürekli yasal eğitim gerekliliklerine uyun” (MRPC'ye göre).

Müşterinin gizli bilgilerinin saklanması (Kural 1.6), veriler gibi müşteri mülkünün korunması (Kural 1.15), bir müşteriyle uygun şekilde iletişim kurulması (Kural 1.4), müşterinin bilgilendirilmiş rızasının alınması (Kural 1.6), ve bir müşteri adına yetkili temsilin sağlanması (Kural 1.1). Ayrıca ABA tarafından kabul edilen, az bilinen ancak oldukça dikkate değer yapay zeka odaklı karar da var: "Amerikan Barolar Birliği'nin mahkemeleri ve avukatları yapay zekanın ('AI') kullanımıyla ilgili ortaya çıkan etik ve yasal sorunları ele almaya çağırması. (1) yapay zeka tarafından verilen otomatik kararların önyargısı, açıklanabilirliği ve şeffaflığı; (2) yapay zekanın etik ve faydalı kullanımı; ve (3) yapay zekanın ve yapay zeka sağlayan sağlayıcıların kontrolleri ve gözetimi."

Yasal arkadaşlarım ve meslektaşlarım için bilge sözler.

İşin püf noktası, üretken yapay zeka kullanırken hemen hemen herkesin kendini bir çıkmaza sokabilmesidir. Avukat olmayanlar, yasal zekadan yoksun oldukları varsayılarak bunu yapabilirler. Avukatlar da bunu yapabilir, belki de yapay zekaya aşıktırlar veya derin bir nefes almayarak ve üretken yapay zeka kullanırken hangi yasal sonuçların ortaya çıkabileceğini düşünürler.

Hepimiz potansiyel olarak aynı gemideyiz.

Ayrıca, ChatGPT'nin bloktaki tek üretken yapay zeka uygulaması olmadığını da anlamalısınız. Kullanabileceğiniz başka üretken AI uygulamaları var. Bunlar da muhtemelen aynı kumaştan kesilmiştir, yani bilgi istemi olarak girdiğiniz girdiler ve oluşturulan çıktı denemeleri olarak aldığınız çıktılar, kolektifin bir parçası olarak kabul edilir ve yapay zeka oluşturucu tarafından kullanılabilir.

Bugünün sütununda, girdiğiniz verilerin ve üretici yapay zekadan aldığınız verilerin mahremiyet ve mahremiyet açısından potansiyel olarak nasıl tehlikeye girebileceğinin doğasını açıklayacağım. AI üreticileri, lisanslama gereksinimlerini kullanıma sunar ve herhangi bir gerçek veri görünümüne sahip bir AI uygulamasını aktif olarak kullanmaya başlamadan önce bu hayati hükümleri okumanız akıllıca olacaktır. ChatGPT AI uygulaması için böyle bir lisanslama örneği üzerinden size yol göstereceğim.

Tüm bunların içine bir dizi AI Etiği ve AI Yasası hususları geliyor.

Etik Yapay Zeka ilkelerini Yapay Zeka uygulamalarının geliştirilmesine ve sahaya sürülmesine dahil etmeye yönelik devam eden çabalar olduğunu lütfen unutmayın. Endişeli ve eski AI etikçilerinden oluşan artan bir grup, AI tasarlama ve benimseme çabalarının bir yapma görüşünü dikkate almasını sağlamaya çalışıyor. AI için iyi ve kaçınmak Kötü İçin AI. Aynı şekilde, yapay zeka çabalarının insan hakları ve benzeri konularda çıldırmasını önlemek için potansiyel çözümler olarak ortalıkta dolaşan önerilen yeni yapay zeka yasaları da var. Yapay Zeka Etiği ve Yapay Zeka Yasası ile ilgili devam eden ve kapsamlı kapsamım için bkz. buradaki bağlantı ve buradaki bağlantı, Sadece birkaç isim.

Yapay zeka üreticilerinin, kullanıcılarına özel veya gizli görünen veri veya bilgilerle nasıl başa çıkabileceği veya işlemesi gerektiği ile ilgili önemli Etik Yapay Zeka nüansları ve hükümleri vardır. Muhtemelen, bir dizi mevcut yasanın, verilerin teknoloji varlıkları tarafından nasıl ele alınması gerektiğinin özüne vurduğunu da biliyorsunuzdur. Şanslar da, yeni önerilen AI yasalarının da aynı bölgeye geçmesidir. Örneğin benim kapsamıma bakın AI Haklar Bildirgesi ve AI hakkında devam eden diğer yasal çekişmeler, buradaki bağlantı.

İşte bu tartışmanın tümünün anlatıldığı ana çıkarım:

  • Üretken yapay zekayı kullanırken istemlerinize hangi verileri veya bilgileri koymayı tercih ettiğiniz konusunda çok, çok, çok dikkatli olun ve benzer şekilde son derece dikkatli olun ve çıktılar da absorbe edilebildiğinden ne tür çıktı makaleler alabileceğinizi tahmin edin.

Bu, üretken AI kullanmamanız gerektiği anlamına mı geliyor?

Hayır, söylemek istediğim kesinlikle bu değil.

Üretken yapay zekayı dilediğiniz gibi kullanın. İşin özü, onu nasıl kullandığınıza dikkat etmeniz gerektiğidir. Kullanımla ne tür lisanslama hükümlerinin ilişkili olduğunu öğrenin. Bu şartlarla yaşayıp yaşayamayacağınıza karar verin. Belirli türde ek korumalar veya izinler almak istediğinizi AI oluşturucuya bildirmenin yolları varsa, bunu yaptığınızdan emin olun.

Bazı insanları çıldırtacağını fark ettiğim başka bir yönden de bahsedeceğim. İşte gidiyor. Lisanslama hükümleri ne olursa olsun, bu gerekliliklere tam olarak uyulmama ihtimalinin olduğunu da varsaymanız gerekir. İşler ters gidebilir. Çatlaklar arasından bir şeyler kayabilir. Sonunda, elbette, bir AI üreticisine karşı şartlarına uymadığı için yasal bir davanız olabilir, ancak bu, at ahırdan çıktıktan biraz sonradır.

Devam etmenin potansiyel olarak oldukça güvenli bir yolu, bulutta veya şirket içinde kendi sistemlerinizde kendi bulut sunucunuzu kurmaktır (ve bazılarının uymadığı ve daha kötü olduğu kabul edilen uygun siber güvenlik önlemlerine bağlı kaldığınızı varsayarsak). yazılım satıcısının bulutunu kullanmaktansa kendi bulutlarında kapalı). Yine de biraz can sıkıcı bir sorun, üretken yapay zeka büyük ölçekli uygulamalarından çok azının şu anda buna izin vermesidir. Hepsi hemen hemen yalnızca bizim bulutumuz temelinde çalışıyor. Çok azı, yalnızca sizin için oyulmuş bir örneğin tamamına sahip olma seçeneğini kullanıma sunmuştur. Bu seçeneğin ortaya çıktığını yavaş yavaş göreceğimizi tahmin etmiştim, ancak ilk başta oldukça maliyetli ve biraz karmaşık olacak, şuradaki tahminlerime bakın buradaki bağlantı.

Aksi takdirde, özellikle parlak ve özellikle zeki insanlar kendilerini bir veri veya bilgi gizliliği erozyonu bataklığına nasıl sokarlar?

Birini kullanmaya başladığınızda, bu üretken yapay zeka uygulamalarının cazibesi oldukça çekicidir. Adım adım, kendinizi büyülenmiş halde buluyorsunuz ve ayak parmaklarınızı üretken AI sularına daha da fazla sokmayı seçiyorsunuz. Bildiğiniz bir sonraki şey, özel ve gizli tutulması gereken tescilli içeriği üretken bir AI uygulamasına kolayca teslim ediyorsunuz.

Dürtüye direnin ve lütfen adım adım tatsız bir tuzağa düşmekten kaçının.

İş dünyası liderleri ve üst düzey yöneticiler için aynı uyarı size ve şirketinizdeki tüm insanlara yöneliktir. Kıdemli yöneticiler de üretken yapay zekayı kullanmanın coşkusuna ve şaşkınlığına kapılıyor. Gerçekten ortalığı karıştırabilir ve potansiyel olarak üst düzey gizli bilgileri bir AI uygulamasına girebilirler.

Bunun da ötesinde, üretken yapay zeka ile oynayan çalışanlarından oluşan geniş bir lige sahip olabilirler. Aksi takdirde dikkatli olan personelin çoğu, şirketin özel ve gizli bilgilerini bu AI uygulamalarına akılsızca ve mutlulukla giriyor. Son haberlere göre, Amazon görünüşe göre bazı çalışanların ChatGPT'ye çeşitli özel bilgiler girdiğini keşfetti. Karşı konulamaz AI uygulamasından yararlanma konusunda dikkatli olunması için dahili olarak yasal odaklı bir uyarı gönderildiği söylendi.

Genel olarak, çalışanların ister istemez ChatGPT'ye ve diğer üretken yapay zekaya gizli verileri girme fenomenine biraz ironi geliyor. Detaylandırmama izin ver. Günümüzün modern şirketleri tipik olarak, titizlikle hazırladıkları ve uyguladıkları katı siber güvenlik politikalarına sahiptir. Çok sayıda teknolojik koruma mevcuttur. Umut, önemli şeylerin kazara serbest bırakılmasını önlemektir. Sürekli bir davul sesi, web sitelerini ziyaret ettiğinizde dikkatli olmanız, onaylanmamış uygulamaları kullandığınızda vb. Dikkatli olmanızdır.

Birlikte, ChatGPT gibi üretken AI uygulamaları gelir. AI uygulamasıyla ilgili haberler tavan yapıyor ve geniş ilgi görüyor. Bir çılgınlık doğar. Tüm bu siber güvenlik korumalarına sahip olan bu şirketlerdeki kişiler, üretken bir yapay zeka uygulamasına geçmeyi tercih ediyor. İlk başta boş boş oynuyorlar. Daha sonra şirket verilerini girmeye başlarlar. Wham, artık ifşa edilmemesi gereken bilgileri potansiyel olarak ifşa ettiler.

Siber güvenlik korumaları ve ne yapılmaması gerektiği konusunda süregelen eğitimler için yapılan milyonlarca dolarlık harcamayı sihirli bir şekilde aşan parlak yeni oyuncak. Ancak, üretken yapay zekayı kullanmak ve "içerideki" kalabalığın bir parçası olmak heyecan verici. Görünüşe göre önemli olan bu.

Belirgin bir şekilde temkinli olma konusundaki sapmamı anladığınıza inanıyorum.

Şimdi, üretici yapay zekanın teknik olarak bilgi istemlerinin ve çıktı alınan makalelerin metinleriyle nasıl ilgilendiğine yakından bir göz atalım. Ayrıca ChatGPT'yi örnek olarak kullanarak bazı lisanslama şartlarını keşfedeceğiz. Lütfen bu lisanslama öğelerinin tüm gamını kapsamayacağımı anlayın. Hangi üretken yapay zeka uygulamalarını kullanmaya karar verirseniz verin, hukuk danışmanınızı dahil ettiğinizden emin olun. Ayrıca, lisanslama yapay zeka üreticisinden yapay zeka üreticisine farklılık gösterir, ayrıca belirli bir yapay zeka üreticisi lisanslarını değiştirmeyi seçebilir, bu nedenle lisanslamanın en son sürümü ne olursa olsun dikkatli olun.

Bu baş döndürücü konuda yapacağımız heyecan verici bir paket açma işlemimiz var.

İlk olarak, Generative AI'nın nelerden oluştuğu ve ayrıca ChatGPT'nin neyle ilgili olduğu konusunda hepimizin hemfikir olduğundan emin olmalıyız. Bu temel yönü ele aldığımızda, bu tür yapay zeka ile ilişkili ayna metaforunun ikna edici bir değerlendirmesini yapabiliriz.

Generative AI ve ChatGPT'ye zaten fazlasıyla aşina iseniz, belki bir sonraki bölüme göz atabilir ve onu takip eden bölüme geçebilirsiniz. Bu konuların hayati detaylarını herkesin bu bölümü dikkatle okuyarak ve günceli yakalayarak öğretici bulacağına inanıyorum.

Üretken Yapay Zeka ve ChatGPT Hakkında Hızlı Bir Başlangıç

ChatGPT, genel amaçlı bir AI etkileşimli konuşma odaklı sistemdir, temelde görünüşte zararsız bir genel sohbet robotudur, ancak, kısaca detaylandıracağım gibi, insanlar tarafından pek çok kişiyi tamamen hazırlıksız yakalayan şekillerde aktif ve hevesli bir şekilde kullanılmaktadır. Bu AI uygulaması, AI alanında genellikle şu şekilde adlandırılan bir teknik ve teknolojiden yararlanır: üretken yapay zeka. Yapay zeka, ChatGPT'nin yaptığı gibi metin gibi çıktılar üretir. Diğer üretken tabanlı AI uygulamaları, resimler veya sanat eserleri gibi görüntüler üretirken, diğerleri ses dosyaları veya videolar oluşturur.

ChatGPT'nin yaptığı bu olduğundan, bu tartışmada metin tabanlı üretken AI uygulamalarına odaklanacağım.

Üretken AI uygulamalarının kullanımı son derece kolaydır.

Tek yapmanız gereken bir istem girmek ve AI uygulaması sizin için isteminize yanıt vermeye çalışan bir makale oluşturacaktır. Oluşturulan metin, makale insan eli ve aklı tarafından yazılmış gibi görünecektir. "Bana Abraham Lincoln'den bahset" diyen bir komut istemi girerseniz, üretici yapay zeka size Lincoln hakkında bir makale sağlayacaktır. Bu genellikle performans gösteren üretici yapay zeka olarak sınıflandırılır. metinden metne ya da bazıları onu aramayı tercih ediyor metinden denemeye çıktı. Bahsedildiği gibi, metinden resme ve metinden videoya gibi başka üretici AI modları da vardır.

İlk düşünceniz, bu üretken yeteneğin, makaleler üretmek açısından o kadar da önemli görünmediği olabilir. İnternette kolayca bir çevrimiçi arama yapabilir ve Başkan Lincoln hakkında tonlarca makale bulabilirsiniz. Üretici yapay zeka durumunda önemli olan, oluşturulan makalenin nispeten benzersiz olması ve bir kopyadan ziyade orijinal bir kompozisyon sağlamasıdır. Yapay zeka tarafından üretilen makaleyi çevrimiçi olarak bir yerde bulmaya çalışırsanız, onu keşfetmeniz pek olası değildir.

Üretken yapay zeka önceden eğitilmiştir ve web'deki yazılı kelimelerdeki ve hikayelerdeki kalıpları inceleyerek oluşturulmuş karmaşık bir matematiksel ve hesaplamalı formülasyondan yararlanır. Yapay zeka, binlerce ve milyonlarca yazılı pasajı incelemesinin bir sonucu olarak, bulunanların bir karışımı olan yeni denemeler ve hikayeler çıkarabilir. Çeşitli olasılıksal işlevler eklendiğinde, ortaya çıkan metin, eğitim setinde kullanılanlara kıyasla oldukça benzersizdir.

Bu nedenle, öğrencilerin sınıf dışında kompozisyon yazarken kopya çekebilmeleri konusunda bir yaygara koptu. Bir öğretmen, düzenbaz öğrencilerin kendi yazıları olduğunu ileri sürdükleri makaleyi alıp başka bir çevrimiçi kaynaktan kopyalanıp kopyalanmadığını bulmaya çalışamaz. Genel olarak, yapay zeka tarafından oluşturulan denemeye uyan, çevrimiçi olarak önceden var olan kesin bir makale olmayacak. Sonuç olarak, öğretmen, öğrencinin denemeyi orijinal bir eser olarak yazdığını gönülsüzce kabul etmek zorunda kalacaktır.

Üretken yapay zeka hakkında ek endişeler var.

Önemli bir dezavantaj, üretken tabanlı bir AI uygulaması tarafından üretilen makalelerin, açıkça doğru olmayan gerçekler, yanıltıcı bir şekilde tasvir edilen gerçekler ve tamamen uydurma olan açık gerçekler dahil olmak üzere çeşitli yanlışlıklara sahip olabilmesidir. Bu fabrikasyon yönlere genellikle bir biçim olarak atıfta bulunulur. AI halüsinasyonları, beğenmediğim ama ne yazık ki yine de popüler bir ilgi kazanıyor gibi görünen bir slogan (bunun neden berbat ve uygun olmayan bir terminoloji olduğuna dair ayrıntılı açıklamam için, şu adresteki kapsamıma bakın: buradaki bağlantı).

Bu konunun derinine inmeden önce önemli bir konuya açıklık getirmek istiyorum.

hakkında sosyal medyada çok büyük iddialar ortaya atıldı. üretken yapay zeka yapay zekanın bu son sürümünün aslında duyarlı yapay zeka (hayır, yanılıyorlar!). Yapay Zeka Etiği ve Yapay Zeka Hukuku alanındakiler, genişleyen iddiaların bu filizlenen eğilimi konusunda özellikle endişeli. Kibarca, bazı insanların bugünün yapay zekasının yapabileceklerini abarttığını söyleyebilirsiniz. Yapay zekanın henüz başaramadığımız yeteneklere sahip olduğunu varsayıyorlar. Bu talihsizlik. Daha da kötüsü, yapay zekanın harekete geçebilme konusunda duyarlı veya insan benzeri olacağı varsayımı nedeniyle kendilerinin ve diğerlerinin zor durumlara girmesine izin verebilirler.

AI'yı antropomorfize etmeyin.

Bunu yapmak, yapay zekanın yapamayacağı şeyleri yapmasını bekleme şeklindeki yapışkan ve asık suratlı bir güven tuzağına düşmenize neden olacaktır. Bununla birlikte, üretken yapay zekadaki en son gelişmeler, yapabilecekleri açısından nispeten etkileyici. Yine de, herhangi bir üretici AI uygulamasını kullanırken sürekli olarak aklınızda bulundurmanız gereken önemli sınırlamalar olduğunu unutmayın.

ChatGPT ve Generative AI hakkında hızla yayılan kargaşayla ilgileniyorsanız, sütunumda bilgilendirici bulabileceğiniz odaklanmış bir dizi yapıyorum. Bu konulardan herhangi birinin ilginizi çekmesi ihtimaline karşı bir göz atalım:

  • 1) Üretken Yapay Zeka İlerlemelerinin Yaklaşan Tahminleri. Üretken yapay zeka ve ChatGPT'de yaklaşan ilerlemeler de dahil olmak üzere, 2023 ve sonrasında yapay zeka hakkında neler ortaya çıkacağını öğrenmek istiyorsanız, şu adresteki kapsamlı 2023 tahminleri listemi okumak isteyeceksiniz: buradaki bağlantı.
  • 2) Üretken Yapay Zeka ve Akıl Sağlığı Önerileri. Şuradaki odaklanmış analizime göre, üretici yapay zeka ve ChatGPT'nin akıl sağlığı tavsiyesi için nasıl kullanıldığını incelemeyi seçtim; bu, zahmetli bir trend. buradaki bağlantı.
  • 3) Üretken Yapay Zeka ve ChatGPT'nin Temelleri. Bu parça, üretici yapay zekanın nasıl çalıştığına dair temel unsurları araştırıyor ve özellikle şu adreste vızıltı ve tantana analizi de dahil olmak üzere ChatGPT uygulamasını derinlemesine inceliyor. buradaki bağlantı.
  • 4) Üretken Yapay Zeka ve ChatGPT Konusunda Öğretmenler ve Öğrenciler Arasındaki Gerilim. İşte öğrencilerin üretken AI ve ChatGPT'yi sinsi bir şekilde kullanma yolları. Ek olarak, öğretmenlerin bu gelgit dalgasıyla mücadele etmesinin birkaç yolu vardır. Görmek buradaki bağlantı.
  • 5) Bağlam ve Üretken Yapay Zeka Kullanımı. Ayrıca, ChatGPT ve üretken AI'yı içeren Noel Baba ile ilgili bir bağlam hakkında mevsimsel olarak tatlandırılmış bir dille alaycı bir inceleme yaptım. buradaki bağlantı.
  • 6) Üretken Yapay Zeka Kullanan Dolandırıcılar. Uğursuz bir kayda göre, bazı dolandırıcılar, dolandırıcılık e-postaları oluşturmak ve hatta kötü amaçlı yazılım için programlama kodu üretmek de dahil olmak üzere yanlış yapmak için üretici yapay zekayı ve ChatGPT'yi nasıl kullanacaklarını anladılar, şu adresteki analizime bakın: buradaki bağlantı.
  • 7) Üretken Yapay Zeka Kullanan Çaylak Hataları. Pek çok insan üretken AI ve ChatGPT'nin yapabileceklerini hem aşıyor hem de şaşırtıcı bir şekilde altında kalıyor, bu yüzden özellikle AI çaylaklarının yapma eğiliminde olduklarına baktım, şu adresteki tartışmaya bakın: buradaki bağlantı.
  • 8) Üretken Yapay Zeka İstemleri ve Yapay Zeka Halüsinasyonlarıyla Başa Çıkma. Üretken yapay zekaya uygun istemler girmeye çalışmakla ilgili çeşitli sorunların üstesinden gelmek için yapay zeka eklentilerini kullanmaya yönelik öncü bir yaklaşımı açıklıyorum, ayrıca yapay zeka halüsinasyonlu çıktıları ve yanlışlıkları tespit etmek için ek yapay zeka eklentileri de var. kaplı buradaki bağlantı.
  • 9) Yapay Zeka Tarafından Üretilen Üretken Denemeleri Tespit Etmeyle İlgili Bonehead İddialarını Çürütmek. Herhangi bir makalenin yapay zeka tarafından mı yoksa insan tarafından mı üretildiğini tespit edebildiğini iddia eden yapay zeka uygulamalarında yanlış yönlendirilmiş bir altına hücum var. Genel olarak, bu yanıltıcıdır ve bazı durumlarda, kemik kafalı ve savunulamaz bir iddia, adresindeki kapsamıma bakın. buradaki bağlantı.
  • 10) Üretken Yapay Zeka Yoluyla Rol Oynama Ruh Sağlığı Dezavantajlarına Önem Verebilir. Bazıları, rol oynama yapmak için ChatGPT gibi üretken yapay zeka kullanıyor; bu sayede yapay zeka uygulaması, bir insana sanki bir fantezi dünyasında veya başka bir uydurma ortamda varmış gibi yanıt veriyor. Bunun zihinsel sağlık sonuçları olabilir, bkz. buradaki bağlantı.
  • 11) Çıktılanan Hataların ve Yanlışlıkların Aralığını Ortaya Çıkarma. ChatGPT tarafından üretilen hataların ve yanlışlıkların doğasını denemek ve sergilemek için çeşitli toplanan listeler bir araya getiriliyor. Bazıları bunun gerekli olduğuna inanırken, diğerleri alıştırmanın boşuna olduğunu söylüyor, şu adresteki analizime bakın: buradaki bağlantı.
  • 12) Üretken AI ChatGPT'yi Yasaklayan Okullar Tekneyi Kaçırıyor. New York Şehri (NYC) Eğitim Bakanlığı gibi çeşitli okulların kendi ağlarında ve ilişkili cihazlarında ChatGPT kullanımını yasakladıklarını biliyor olabilirsiniz. Bu yararlı bir önlem gibi görünse de, iğneyi hareket ettirmeyecek ve ne yazık ki tekneyi tamamen ıskalayacaktır, adresindeki kapsamıma bakın. buradaki bağlantı.
  • 13) Üretken Yapay Zeka ChatGPT, Yaklaşan API Sayesinde Her Yerde Olacak. ChatGPT'nin kullanımıyla ilgili önemli bir gelişme var, yani bu belirli AI uygulamasında bir API portalının kullanılması yoluyla, diğer yazılım programları ChatGPT'yi çağırabilecek ve kullanabilecek. Bu, üretici yapay zekanın kullanımını önemli ölçüde genişletecek ve dikkate değer sonuçları olacak, şu adresteki ayrıntılı açıklamama bakın: buradaki bağlantı.
  • 14) ChatGPT'nin Bozulması veya Erimesinin Yolları. ChatGPT'nin şimdiye kadar aldığı muazzam övgünün altını çizmek açısından önünde birçok can sıkıcı sorun bulunuyor. Bu analiz, ChatGPT'nin gücünü kaybetmesine ve hatta köpek kulübesine girmesine neden olabilecek sekiz olası sorunu yakından inceliyor, bkz. buradaki bağlantı.

ChatGPT'nin, GPT-3 olarak bilinen önceki bir yapay zeka uygulamasının bir sürümüne dayalı olduğunu ilginizi çekebilir. ChatGPT, GPT-3.5 olarak adlandırılan bir sonraki adım olarak kabul edilir. GPT-4'ün büyük olasılıkla 2023 İlkbaharında piyasaya çıkması bekleniyor. Muhtemelen GPT-4, görünüşte daha akıcı makaleler üretebilmek, daha derine inmek ve hayranlık uyandırmak açısından ileriye doğru etkileyici bir adım olacak. - üretebileceği kompozisyonlar konusunda ilham verici bir mucize.

İlkbahar geldiğinde ve üretken yapay zekadaki en son sürüm piyasaya sürüldüğünde, yeni bir ifade edilmiş merak turu görmeyi bekleyebilirsiniz.

Bunu gündeme getirdim çünkü akılda tutulması gereken başka bir açı var, bu daha iyi ve daha büyük üretken AI uygulamaları için potansiyel bir Aşil topuğu. Herhangi bir yapay zeka satıcısı, köpüklü bir şekilde pislik yayan üretken bir yapay zeka uygulaması sunarsa, bu, yapay zeka üreticilerinin umutlarını boşa çıkarabilir. Toplumsal bir yayılma, tüm üretken yapay zekanın ciddi bir kara göze çarpmasına neden olabilir. İnsanlar, şimdiye kadar birçok kez meydana gelen ve AI'ya yönelik şiddetli toplumsal kınama tepkilerine yol açan hatalı çıktılara şüphesiz oldukça üzüleceklerdir.

Şimdilik son bir ön uyarı.

Üretken bir AI yanıtında gördüğünüz veya okuduğunuz her şey görünüyor tamamen olgusal (tarihler, yerler, insanlar vb.)

Evet, tarihler uydurulabilir, yerler uydurulabilir ve genellikle kusursuz olmasını beklediğimiz unsurlar herşey şüphelere tabidir. Okuduğunuza inanmayın ve herhangi bir üretici yapay zeka makalesini veya çıktısını incelerken şüpheyle bakın. Üretken bir AI uygulaması size Abraham Lincoln'ün kendi özel jetiyle ülke çapında uçtuğunu söylerse, bunun sıtma olduğunu şüphesiz anlarsınız. Ne yazık ki, bazı insanlar onun zamanında jetlerin olmadığını fark etmeyebilirler veya makalenin bu küstahça ve son derece yanlış iddiada bulunduğunu bilip de fark etmeyebilirler.

Güçlü bir dozda sağlıklı şüphecilik ve ısrarcı bir inançsızlık zihniyeti, üretken yapay zekayı kullanırken en iyi varlığınız olacaktır.

Bu açıklamanın bir sonraki aşamasına geçmeye hazırız.

Şeytanın O Metinle Ne Olacağını Bilmek

Artık temelleri oluşturduğumuza göre, üretken yapay zekayı kullanırken veri ve bilgiyle ilgili değerlendirmeleri inceleyebiliriz.

Öncelikle, ChatGPT istemine bir metin girdiğinizde ne olacağını kısaca ele alalım. Program tescilli olarak kabul edildiğinden, ChatGPT'nin içinde neler olduğundan emin değiliz. Bazıları bunun AI uygulamasıyla ilgili bir şeffaflık duygusunu baltaladığına dikkat çekti. Biraz alaycı bir açıklama, OpenAI adlı bir şirket için yapay zekalarının aslında kamu erişimine kapalı olduğu ve açık kaynak olarak mevcut olmadığıdır.

Belirteçleştirmeyi tartışalım.

Bir bilgi istemine düz metin girip geri dönüşe bastığınızda, muhtemelen hemen gerçekleşen bir dönüşüm vardır. Metin, belirteçlerden oluşan bir biçime dönüştürülür. Jetonlar kelimelerin alt parçalarıdır. Örneğin, "hamburger" kelimesi normalde "ham", "bur" ve "ger" bölümlerinden oluşan üç simgeye bölünür. Temel bir kural, belirteçlerin yaklaşık dört karakteri temsil etme eğiliminde olduğu veya geleneksel bir İngilizce kelimenin yaklaşık %75'i olarak kabul edildiğidir.

Her belirteç daha sonra bir sayı olarak yeniden formüle edilir. Çeşitli dahili tablolar, hangi simgenin hangi belirli numaraya atandığını belirtir. Bunun anlamı, girdiğiniz metnin artık tamamen bir sayı kümesi olmasıdır. Bu sayılar istemi hesaplamalı olarak analiz etmek için kullanılır. Ayrıca, daha önce bahsettiğim model eşleştirme ağı da tokenize edilmiş değerlere dayalıdır. Sonuç olarak, çıktısı alınan makaleyi oluştururken veya oluştururken, önce bu sayısal belirteçler kullanılır ve ardından belirteçler gösterilmeden önce tekrar harf ve sözcük kümelerine dönüştürülür.

Bir an için düşünün.

İnsanlara işlemenin mekanizmasının bu şekilde çalıştığını söylediğimde genellikle hayrete düşüyorlar. ChatGPT gibi üretken bir AI uygulamasının tamamen bütünleştirici kelimeler kullanması gerektiğini varsaydılar. Mantıksal olarak, kelimelerin yazılı anlatılar ve kompozisyonlardaki ilişkileri istatistiksel olarak tanımlamak için temel taşı görevi gördüğünü varsayıyoruz. İşlemin aslında jeton kullanma eğiliminde olduğu ortaya çıktı. Belki de bu, hesaplama sürecinin insan dilini taklit etme konusunda oldukça ikna edici bir iş çıkardığına dair şaşkınlığı artırıyor.

Etrafa yayılıyor gibi görünen yaygın bir yanılgı nedeniyle size bu süreçte yol gösterdim. Bazı insanlar, bilgi istemi metniniz sayısal belirteçlere dönüştürüldüğü için, AI uygulamasının dahili bileşenlerinin bir şekilde orijinal olarak girdiğiniz metne artık sahip olmadığına inanıyor gibi görünüyor. Bu nedenle, iddia devam ediyor, isteminize gizli bilgiler girmiş olsanız bile, hepsi görünüşte tokenize edildiğinden endişelenmenize gerek yok.

Bu kavram bir yanılgıdır. Az önce, sayısal belirteçlerin kolayca harf ve sözcüklerin metinsel biçimine geri getirilebileceğine dikkat çektim. Aynısı, belirteç haline getirilmiş dönüştürülmüş bilgi istemi için de yapılabilir. Sembolize edilmiş olmanın sihirli bir şekilde koruyucu hiçbir yanı yoktur. Bununla birlikte, belirteçlere dönüştürüldükten sonra, belirteçleri çıkarmayı, onları hareket ettirmeyi ve başka şekilde karıştırmayı veya bir şeyleri parçalamayı seçen ek bir süreç varsa, bu durumda gerçekten de orijinalin bazı bölümlerinin olma olasılığı vardır. bilgi istemi artık sağlam değil (ve orijinal bir kopyanın başka bir şekilde saklanmadığı veya dahili olarak bir yerde saklanmadığı varsayılarak).

Bundan sonra, ChatGPT'nin çeşitli bildirimlerine ve lisanslama koşullarına bir göz atmak istiyorum.

ChatGPT'de oturum açtığınızda, görüntülenen bir dizi uyarı ve bilgilendirici yorum vardır.

İşte buradalar:

  • "Bazen yanlış bilgiler üretebilir."
  • "Bazen zararlı talimatlar veya taraflı içerik üretebilir."
  • "Uygunsuz istekleri reddetmek için eğitildim."
  • "Amacımız, sistemlerimizi iyileştirmek ve daha güvenli hale getirmek için dışarıdan geri bildirim almak."
  • “Güvenlikler yürürlükte olmasına rağmen, sistem zaman zaman yanlış veya yanıltıcı bilgiler üretebilir ve rahatsız edici veya önyargılı içerik üretebilir. Tavsiye vermek amaçlı değildir.”
  • "Konuşmalar, sistemlerimizi iyileştirmek için yapay zeka eğitmenlerimiz tarafından incelenebilir."
  • "Lütfen konuşmalarınızda hassas bilgileri paylaşmayın."
  • “Bu sistem diyalog için optimize edilmiştir. Belirli bir yanıtın iyi mi yoksa yararsız mı olduğunu bize bildirin.”
  • "2021'den sonraki dünya ve olaylar hakkında sınırlı bilgi."

Belirtilen uyarılardan ikisi bu tartışmayla özellikle ilgilidir. Altıncı madde işaretine ve yedinci madde işaretine bakın.

Bu ikisini açalım:

"Konuşmalar, sistemlerimizi iyileştirmek için yapay zeka eğitmenlerimiz tarafından incelenebilir."

Bu altıncı madde işareti, ChatGPT kullanılırken yapılan metin sohbetlerinin ChatGPT tarafından sistemlerini iyileştirmek için yapılan "AI eğiticileri" aracılığıyla gözden geçirilebileceğini açıklar. Bu, ChatGPT ile gerçekleştirdiğiniz "sohbetin" bir parçası olan, girdiğiniz tüm metin istemleri ve bunlara karşılık gelen çıktısı alınmış denemelerin tümü için, bunların insanlar tarafından tamamen görülebileceğini size bildirmek içindir. Önerilen mantık, bunun AI uygulamasını geliştirmek için yapıldığı ve ayrıca bunun AI eğitmenleri tarafından yapılan bir tür iş görevi olduğu söylendi. Belki öyle, ama sonuçta, metninize bakabilecekleri konusunda sizi uyardılar. Nokta, nokta.

Metninizle başka bir şey yapacak olsalardı, muhtemelen metni yalnızca sistem iyileştirme amaçlarıyla incelemenin önerilen sınırlarının ötesine geçip geçmedikleri konusunda yasal tavsiye alırsınız (böyle yaptıklarını keşfetmeyi başardığınızı varsayarsak, hangilerinden kendisi belki olası görünmüyor). Her neyse, onları bu konuda suçlamaya çalışmanın yasal çekişmesini ve sorumluluk reddi beyanlarının sınırlarını bir şekilde ihlal ettikleri için yakalanmaktan kurtulma yollarını kelime ustalığı yapma girişimlerini hayal edebilirsiniz.

"Lütfen konuşmalarınızda hassas bilgileri paylaşmayın."

Yedinci madde işareti, konuşmalarınızda hassas bilgileri paylaşmayacağınızı belirtir. Bu nispeten basit görünüyor. Sanırım hassas bilgilerin tanımının nelerden oluştuğu konusunda tartışabilirsiniz. Ayrıca, madde işaretli nokta size neden herhangi bir hassas bilgiyi paylaşmamanız gerektiğini söylemez. Bir gün gizli verileri neden aptalca girdiğinizi açıklamak zorunda kalırsanız, uyarının spesifik olmadığını ve bu nedenle önemini anlamadığınızı iddia ederek kaşınızı kaldırabilirsiniz. Bunun üzerinde nefesini tut.

Sonuç olarak, ChatGPT'yi kullanırken gördüğüm çoğu insanın madde işaretli noktaları okumama eğiliminde olduğunu veya madde işaretli önlemleri gözden kaçırdığını ve tümünü gördüğünüz olağan anlamsız hukukçularmış gibi sadece başlarını salladığını söyleyebilirim. zaman. Görünüşe göre çok azı uyarıları ciddiye alıyor. Bu, önlemleri daha belirgin hale getirmediği için satıcının bir hatası mı? Yoksa kullanıcıların sorumlu olması ve dikkatli bir şekilde okuyup anlaması ve ardından uyarılara dayanarak mantıklı davranması gerektiğini mi varsaymalıyız?

Hatta bazıları AI uygulamasının sizi defalarca uyarması gerektiğini iddia ediyor. Bir istem girdiğinizde, yazılım bir uyarı açmalı ve size geri dönmek isteyip istemediğinizi sormalıdır. Tekrar tekrar. Bu yararlı bir önlem gibi görünse de, kuşkusuz kullanıcıları çok rahatsız edecektir. Dikenli bir değiş tokuş söz konusudur.

Tamam, bunlar tüm kullanıcıların kolayca görmesi için sunulan bariz uyarılardır.

Daha meraklı olabilecek kullanıcılar, çevrimiçi olarak da yayınlanan bazı ayrıntılı lisanslama şartlarını takip etmeyi seçebilirler. Birçoğunun bunu yaptığından şüpheliyim. Önsezim, çok az kişinin oturum açarken madde işaretli noktalara ciddi bir şekilde baktığı ve hatta büyük bir farkla daha da azının lisans ayrıntılarına baktığı yönünde. Yine, bugünlerde hepimiz bu tür şeylere karşı biraz uyuşmuş durumdayız. Davranışı mazur görmüyorum, sadece neden oluştuğunu belirtiyorum.

Yayınlanan lisanslama koşullarından birkaç alıntıyı inceleyeceğim.

İlk olarak, ChatGPT'nin kullanımıyla ilişkili "içerik" olarak kabul ettikleri şeyin bir tanımını burada bulabilirsiniz:

  • “İçeriğiniz. Hizmetlere girdi ('Girdi') sağlayabilir ve Girdiye ('Çıktı') dayalı olarak Hizmetler tarafından üretilen ve iade edilen çıktıyı alabilirsiniz. Girdi ve Çıktı toplu olarak "İçerik"tir. Taraflar arasında ve yürürlükteki yasaların izin verdiği ölçüde, tüm Girdilerin sahibi sizsiniz ve bu Koşullara uymanıza bağlı olarak, OpenAI işbu vesileyle Çıktıya ilişkin tüm haklarını, unvanlarını ve menfaatlerini size devreder. OpenAI, Hizmetleri sağlamak ve sürdürmek, yürürlükteki yasalara uymak ve politikalarımızı uygulamak için gerektiğinde İçeriği kullanabilir. Geçerli herhangi bir yasayı veya bu Şartları ihlal etmemesini sağlamak da dahil olmak üzere İçerikten siz sorumlusunuz."

Bu tanımı dikkatlice incelerseniz, OpenAI'nin, geçerli yasalara uymak ve politikalarını uygulamak da dahil olmak üzere hizmetlerini sürdürmek için gerekli gördüğü şekilde içeriği kullanabileceğini beyan ettiğini fark edeceksiniz. Bu onlar için kullanışlı bir yakalamadır. Gelecek yazılarımdan birinde, farklı ama ilgili bir konuyu, özellikle girilen metin istemleri ve çıktısı alınan makalelerle ilgili sahip olduğunuz Fikri Mülkiyet (IP) hakları hakkında tartışacağım (bunu burada belirtiyorum çünkü tanım İçerik bu konuyla ilgilidir).

Terimlerin c bölümü olarak etiketlenen başka bir bölümünde şu yönden bahsediyorlar: "Makine öğrenimi modellerinin temel faydalarından biri, zaman içinde iyileştirilebilmeleridir. OpenAI'nin Hizmetleri sağlamasına ve sürdürmesine yardımcı olmak için, İçeriği Hizmetleri geliştirmek ve iyileştirmek için kullanabileceğimizi kabul ediyor ve talimat veriyorsunuz." Bu, daha önce tartışılan ChatGPT'de oturum açtığınızda görünen tek satırlık uyarıya benzer.

Bununla bağlantılı ayrı bir belge, bu önemli konular hakkında bazı ek hususlar sağlar:

  • "Bu sürekli iyileştirmenin bir parçası olarak, API'miz aracılığıyla OpenAI modellerini kullandığınızda, bize sağladığınız verileri modellerimizi iyileştirmek için kullanabiliriz. Bu, modellerimizin sizin özel sorununuzu çözmede daha doğru ve daha iyi olmasına yardımcı olmakla kalmaz, aynı zamanda genel kapasitelerini ve güvenliklerini geliştirmeye de yardımcı olur. Veri gizliliğinin ve güvenliğinin müşterilerimiz için kritik öneme sahip olduğunu biliyoruz. Verilerinizi güvence altına almak için uygun teknik ve süreç kontrollerini kullanmaya büyük özen gösteriyoruz. Model performansını iyileştirmek için kullanmayı amaçladığımız verilerden kişisel olarak tanımlanabilir bilgileri kaldırıyoruz. Ayrıca, model performansını iyileştirme çabalarımız için müşteri başına yalnızca küçük bir veri örneklemesi kullanırız. Örneğin, bir görev için müşteri başına örneklediğimiz maksimum API isteği sayısı her 200 ayda bir 6 ile sınırlıdır” (“Verileriniz model performansını iyileştirmek için nasıl kullanılır” başlıklı belgeden alınmıştır).

Şartın, hükmün aşağıdakiler için geçerli olduğunu gösterdiğine dikkat edin: API'nin kullanımı OpenAI modellerine bağlanmanın ve bunları kullanmanın bir yolu olarak anlatıldı. Bunun ChatGPT'yi doğrudan kullanan son kullanıcılar için de geçerli olup olmadığı biraz belirsiz.

Çeşitli SSS listelerini içeren farklı bir belgede, ikisi bu tartışmayla özellikle ilgili görünen bir dizi soru ve yanıt sağlıyorlar:

  • “(5) Konuşmalarımı kimler görebilir? Güvenli ve sorumlu yapay zeka taahhüdümüzün bir parçası olarak, sistemlerimizi iyileştirmek ve içeriğin politikalarımıza ve güvenlik gereksinimlerimize uygun olmasını sağlamak için konuşmaları gözden geçiriyoruz."
  • “(8) Belirli istemleri silebilir misiniz? Hayır, belirli istemleri geçmişinizden silemiyoruz. Lütfen konuşmalarınızda hassas bilgileri paylaşmayın.”

Gizlilik politikalarını kapsayan ek bir belge var. Şunu söylüyor: "Tek başına veya elimizdeki diğer bilgilerle birlikte sizi tanımlamak için kullanılabilecek bilgileri topluyoruz ("Kişisel Bilgiler")" ve ardından günlük verilerini, kullanım verilerini, iletişim bilgilerini kullanabileceklerini açıklamaya devam ediyor. cihaz bilgileri, çerezler, analizler ve sizinle ilgili potansiyel olarak toplanabilecek diğer bilgiler. Küçük yazıları okuduğunuzdan emin olun.

Bence bu, verilerinizin nasıl kullanılabileceğinin altında yatan bazı hususlara dair bir tur sağlıyor. Başta da belirttiğim gibi, tüm lisanslama şartlarını zahmetli bir şekilde gözden geçirmeyeceğim.

Umarım, bu sizi bu konularda bir zihin çerçevesine sokar ve aklınızın başında kalır.

Sonuç

Daha önce söyledim ve tekrar söyleyeceğim, gizli veya özel verileri bu üretken AI uygulamalarına girmeyin.

Bu bilge tavsiyeyle ilgili birkaç kullanışlı ipucu veya seçeneği göz önünde bulundurun:

  • Üretken Yapay Zekayı Kullanmadan Önce Düşünün
  • Eşyaları Önceden Kaldırın
  • Girişinizi Maskeleyin veya Sahte Yapın
  • Kendi Bulut Sunucunuzu Kurun
  • Diğer

Şimdi bunların her birinin nelerden oluştuğunu belirteceğim. Kendi bulut sunucunuzun kurulumu burada daha önce anlatılmıştı. Listemde "diğer" ifadesinin kullanılması, gizli verilerin dahil edilmesini önlemenin başka yollarının olasılığından kaynaklanmaktadır, buna gelecekteki bir sütun gönderisinde daha ayrıntılı olarak değineceğim.

Bunları inceleyelim:

  • Üretken Yapay Zekayı Kullanmadan Önce Düşünün. Bir yaklaşım, üretken AI kullanmaktan tamamen kaçınmayı içerir. Ya da en azından bunu yapmadan önce iki kez düşünün. Sanırım en güvenli yol bu AI uygulamalarını kullanmamaktır. Ancak bu aynı zamanda oldukça şiddetli ve neredeyse aşırıya kaçmış gibi görünüyor.
  • Eşyaları Önceden Kaldırın. Başka bir yaklaşım, bilgi istemi olarak girdiğiniz her şeyden gizli veya özel bilgileri kaldırmaktır. Bu anlamda, girmezseniz, Borg'a bulaşma şansı yoktur. Dezavantajı, belki de gizli kısmın kaldırılması, üretici yapay zekanın sizin için yapmasını sağlamaya çalıştığınız şeyi bir şekilde azaltır veya altını oyar.
  • Girdilerinizi Maskeleyin veya Sahte. Bilgileri değiştirerek önerilen metninizi değiştirebilirsiniz, böylece gizli veya özel görünen her şey artık farklı bir şekilde tasvir edilir. Örneğin, Widget Company ve John Smith'ten bahseden bir sözleşme yerine metni Specious Company ve Jane Capone'dan bahsedecek şekilde değiştirirsiniz. Buradaki sorun, tüm gizlilik ve özel yönlerin tamamen değiştirileceği veya sahte olacağı şekilde yeterince kapsamlı bir iş yapıp yapamayacağınızdır. Bazı bulutları kaçırmak ve orada olmaması gereken şeyleri bırakmak kolay olurdu.

İşte kafanızın bu konuda daha fazla sızmasına neden olabilecek ilginç bir bükülme. Girdi istemlerinizin hiçbirinin herhangi bir gizli bilgi içermediğinden tamamen emin olabiliyorsanız, bu, çıktısı alınan yazıların sizin gizli bilgilerinizi de içermesi konusunda zerre kadar endişelenmenize gerek olmadığı anlamına mı geliyor?

Bu aksiyomatik olarak doğru görünüyor. Gizli girdi yok, gizli çıktı yok.

İşte akıllara durgunluk veren sürpriziniz.

Üretken yapay zeka genellikle sağlanan metin bilgi istemlerinden kendisini hesaplamalı olarak yeniden eğitecek şekilde kurulur. Aynı şekilde, üretken yapay zeka, çıktısı alınan denemelerden hesaplamalı olarak yeniden eğitilmek için sıklıkla tasarlanır. Tüm bu yeniden eğitimin amacı, üretici yapay zekanın yeteneklerini geliştirmektir.

Diğer sütunlarımdan birinde yaptığım aşağıdaki deneyi anlatmıştım. Bir avukat, yasal bir sorunu çözmenin yeni bir yolunu keşfetmeye çalışıyordu. Yasal literatüre kapsamlı bir bakıştan sonra, zaten su yüzüne çıkan tüm açıların bulunduğu görüldü. Üretken yapay zekayı kullanarak, daha önce tanımlanmamış gibi görünen bir yasal yaklaşımın yeniliğini üretmek için yapay zeka uygulamasına sahibiz. Henüz kimsenin bu yasal duruşa inmediğine inanılıyordu. Adeta yasal bir altın külçesi. Bu, doğru zamanda yararlanılabilecek ve istismar edilebilecek, stratejik açıdan değerli, rekabetçi bir yasal kazanç olabilir.

Çıktısı alınan makale, yapay zeka tarafından bu belirli kişi için oluşturulmuş ve özel ve görünüşte benzersiz bir şey içerecek şekilde bir tür gizli bilgi oluşturuyor mu?

Aha, bu bizi üretken yapay zeka ile ilişkili mülkiyet ve fikri mülkiyet haklarıyla ilgili diğer bağlantılı ve iç içe geçmiş konuya götürüyor. Bunun nasıl sonuçlanacağını görmek için bizi izlemeye devam edin.

Şimdilik son bir açıklama.

Sofokles şu bilgeliği sağladı: “Gizlice hiçbir şey yapmayın; çünkü Zaman her şeyi görür, işitir ve her şeyi ifşa eder.” Sanırım ifade biçimini modernize edebilir ve üretken yapay zekanın ve yapay zekayı tasarlayan ve sürdürenlerin de her şeyi görmeye yatkın olduğunu iddia edebilirsiniz.

Hatırlanmaya değer, mütevazi bir tavsiye niteliğindedir.

Kaynak: https://www.forbes.com/sites/lanceeliot/2023/01/27/generative-ai-chatgpt-can-disturbingly-gobble-up-your-private-and-confidential-data-forewarns-ai- etik-ve-ai-hukuk/