Anthropic'in Claude 2.1 LLM turboşarj performansı, beta araç kullanımı sunuyor - Dünyadan Güncel Teknoloji Haberleri

Anthropic'in Claude 2.1 LLM turboşarj performansı, beta araç kullanımı sunuyor - Dünyadan Güncel Teknoloji Haberleri
000 token sınırından oldukça yüksektir 000 token sınırına sahiptir; bu, GPT-3 000 ABD dolarına mal oldu (Anthropic, GPT-4’te yaptığı testlerin aynısını yürütebilmesi için kredi teklif etti) 1 bazı belge derinliklerindeki gerçekleri hatırlayabildi” diyerek Claude 2 ” GPT-4 de en geniş bağlamda mükemmel bir hatırlamaya sahip değildi Bununla birlikte, 200



genel-13

(Geliştiriciler GPT-4 API’sine erişim için kullanım başına ödeme yapabilir 000 kelimeye veya 500’den fazla basılı bilgiye eşdeğer olduğunu söyledi 5’in 16 )

Büyük bir belgeniz veya başka bir bilginiz varsa, geniş bir bağlam penceresi (bir seferde işleyebileceği veri miktarı) ilgi çekici görünse de, Yüksek Lisans’ların daha küçük bir yığındaki bilgilerin yanı sıra büyük miktarda veriyi de işleyebileceği açık değildir


Anthropic, Salı günü yeni piyasaya sürülen Claude 2 1’in önceki sürüme kıyasla yanlış beyanlarda 2 kat azalma gösterdiğini söyledi Greg Kamradt, bir yapay zeka uygulayıcısı ve girişimcisi bu konuyu kim takip ediyor, LLM sorgulandığında büyük bir belgedeki küçük bilgi parçalarının gerçekten bulunup bulunmadığını görmek için “samanlıktaki iğne” analizini çalıştırdı 1’in 200 Anthropic’in duyurusuna göre mevcut modelin “halüsinasyon görmek” veya bir şeyler uydurmak yerine bilmediğini söylemesi daha muhtemel

Telif Hakkı © 2023 IDG Communications, Inc 000 token bağlam penceresine sahip GPT-4 Turbo’nun önizleme sürümünü duyurduğu geçen aya kadar bu ölçümde OpenAI’nin önemli ölçüde ilerisindeydi

Yeni modelin doğruluğuna bakıldığında, Anthropic’in “mevcut modellerde bilinen zayıflıkları araştıran geniş bir karmaşık, gerçek sorular dizisi” olarak adlandırdığı testlerde şirket, Claude 2 000 token bağlam penceresi ödeme yapan Pro kullanıcılar içindir; ücretsiz kullanıcılar ise hâlâ 100 1’de çalıştırmak, API çağrılarında yaklaşık 1

Claude 2’nin beta araç özelliği, geliştiricilerin OpenAI modellerinde mevcut olana benzer şekilde API’leri ve tanımlanmış işlevleri Claude modeliyle entegre etmesine olanak tanıyacak

Aslında, büyük miktarlardaki verilerden bilgi sorgulamak isteyen birçok geliştirici, bağlam penceresi daha fazlasına izin verse bile, alma sonuçlarını iyileştirmek için bu verileri daha küçük parçalara bölen uygulamalar oluşturur

X’te (eski adıyla Twitter) “200 bin token (yaklaşık 470 sayfa) ile Claude 2 1’e erken erişim hakkı verildiğini belirtti duyuru

Şirket, en son Claude sürümünün önceki sürümden daha doğru olduğunu, daha düşük bir fiyata sahip olduğunu ve beta araç kullanımını içerdiğini belirtti 000 token’dan başlayarak, belgenin altındaki geri çağırma performansı giderek kötüleşmeye başladı 000 token bağlam penceresi, OpenAI’nin 128 Ancak, yalnızca ayda 20 ABD doları aboneliğe sahip ChatGPT Plus müşterileri bu modele chatbot biçiminde erişebilir

Yeni model Anthropic’in Claude’una güç veriyor üretken yapay zeka chatbot, böylece hem ücretsiz hem de ödeme yapan kullanıcılar Claude 2

Claude’un önceki 100

Vardığı sonuç: Bilgi istemlerinizi nasıl oluşturduğunuz önemlidir; bilgilerin her zaman alınacağını ve daha küçük girdilerin daha iyi sonuçlar vereceğini varsaymayın

Testleri Claude 2 1’deki iyileştirmelerin çoğundan yararlanabilir Anthropic, bunun kabaca 500 Yüksek Lisans’a gönderilen ve sorgulanan büyük bir belgenin çeşitli bölümlerine rastgele bir ifade koyarak testleri tekrarlıyor “~90 Şirket ayrıca anlama ve özetlemede “anlamlı gelişmeler” olduğunu belirtti 000 tokenlik bir bağlam penceresine sahip olduğunu duyurarak büyük bir dil modelinin (LLM) aynı anda ne kadar bilgi tüketebileceği konusunda çıtayı yükseltti