SingularityNET AGIX: YouTube üzerinden Canlı Yayın
SingularityNET, 7 Mayıs'ta saat 17:00 UTC'de YouTube'da iki mini AMA serisine ev sahipliği yapacak. Dizi, OpenCog Hyperon için birleşik bir deneyimsel öğrenme bileşeninin geliştirilmesindeki en son gelişmeleri ve bunların insan düzeyinde ve ötesinde Yapay Genel Zeka (AGI) çerçevesini tartışıyor.
İlk oturumda Aksiyomatik Olmayan Akıl Yürütme Sisteminin (NARS) OpenCog Hyperon'un MeTTa dili bilişsel hesaplamalarında uygulanması ve Otonom Akıllı Güçlendirme Yorumlanmış Sembolizm (AIRIS) nedensellik temelli öğrenme yapay zekasının Hyperon'a entegrasyonu ele alınacaktır. İkinci oturum, Rational OpenCog Controlled Agent'ı (ROCCA) kullanarak Hyperon'da deneysel öğrenmeyi yeniden oluşturmaya ve ileri ve geri zincirleme, Olasılıksal Mantık Ağları (PLN) ve model madenciliği de dahil olmak üzere ROCCA'nın ihtiyaç duyduğu temel bileşenleri OpenCog classic'ten Hyperon'a taşımaya odaklanacak.
AMA (Bana Herhangi Bir Şey Sor) nedir?
AMA (ask me anything/bana herhangi bir şey sor), katılımcıların konuklara serbestçe soru sorabildiği ve gerçek zamanlı olarak yanıt alabildiği, genellikle çevrimiçi ve gayri resmi olarak gerçekleştirilen interaktif bir toplantıdır.
Session 1
- The implementation of NARS (Non-Axiomatic Reasoning System) in OpenCog Hyperon’s MeTTa language cognitive computations;
- Integrating the AIRIS (Autonomous Intelligent Reinforcement Interpreted Symbolism) causality-based learning AI into Hyperon.
Session 2
- Recreating experiential learning in Hyperon using ROCCA (Rational OpenCog Controlled Agent);
- Porting fundamental components ROCCA requires from OpenCog classic to Hyperon, including forward and backward chaining, PLN (Probabilistic Logic Networks), and pattern mining.
These advancements are part of our ongoing initiative to consolidate the strengths of several systems —ROCCA, NARS, OpenPsi, and AIRIS— to create a unified experiential learning component for Hyperon. This approach will allow AI models to:
- Develop a goal-independent understanding of their environment through causal knowledge gained from planned and spontaneous interactions;
- Explore their environment with increased efficiency using a curiosity model that prioritizes situations with high uncertainty, challenging their existing causal knowledge.
Our preliminary findings indicate that this approach surpasses common Reinforcement Learning techniques in terms of data efficiency by orders of magnitude.
To learn more, set your reminder for the livestream now on your preferred platform:
- YouTube: https://t.co/66Xm1SpDC8
- LinkedIn: https://t.co/JEwoyT7Z9R
- X: SingularityNET