SingularityNET AGIX: YouTube पर लाइव स्ट्रीम
सिंगुलैरिटीनेट 7 मई को शाम 5 बजे यूटीसी पर यूट्यूब पर दो मिनी-एएमए सीरीज की मेजबानी करेगा। इस सीरीज में ओपनकॉग हाइपरॉन के लिए एकीकृत अनुभवात्मक शिक्षण घटक विकसित करने में नवीनतम प्रगति पर चर्चा की गई है, जो मानव स्तर पर और उससे आगे आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) के लिए उनका ढांचा है।
पहले सत्र में ओपनकॉग हाइपरॉन की मेटा भाषा संज्ञानात्मक संगणनाओं में गैर-स्वयंसिद्ध तर्क प्रणाली (एनएआरएस) के कार्यान्वयन और स्वायत्त बुद्धिमान सुदृढीकरण व्याख्या किए गए प्रतीकवाद (एआईआरआईएस) कारण-आधारित शिक्षण एआई को हाइपरॉन में एकीकृत करने पर चर्चा की जाएगी। दूसरा सत्र तर्कसंगत ओपनकॉग नियंत्रित एजेंट (आरओसीसीए) का उपयोग करके हाइपरॉन में अनुभवात्मक शिक्षण को फिर से बनाने और ओपनकॉग क्लासिक से हाइपरॉन में आरओसीसीए द्वारा आवश्यक मूलभूत घटकों को पोर्ट करने पर ध्यान केंद्रित करेगा, जिसमें फॉरवर्ड और बैकवर्ड चेनिंग, प्रोबेबिलिस्टिक लॉजिक नेटवर्क (पीएलएन) और पैटर्न माइनिंग शामिल है।
AMA क्या होता है?
AMA (मुझसे कुछ भी पूछें) आम तौर पर एक ऑनलाइन अनौपचारिक संवादात्मक बैठक है जहां प्रतिभागी अतिथि प्रश्न पूछने और रियल टाइम में उत्तर पाने के लिए स्वतंत्र होते हैं।
Session 1
- The implementation of NARS (Non-Axiomatic Reasoning System) in OpenCog Hyperon’s MeTTa language cognitive computations;
- Integrating the AIRIS (Autonomous Intelligent Reinforcement Interpreted Symbolism) causality-based learning AI into Hyperon.
Session 2
- Recreating experiential learning in Hyperon using ROCCA (Rational OpenCog Controlled Agent);
- Porting fundamental components ROCCA requires from OpenCog classic to Hyperon, including forward and backward chaining, PLN (Probabilistic Logic Networks), and pattern mining.
These advancements are part of our ongoing initiative to consolidate the strengths of several systems —ROCCA, NARS, OpenPsi, and AIRIS— to create a unified experiential learning component for Hyperon. This approach will allow AI models to:
- Develop a goal-independent understanding of their environment through causal knowledge gained from planned and spontaneous interactions;
- Explore their environment with increased efficiency using a curiosity model that prioritizes situations with high uncertainty, challenging their existing causal knowledge.
Our preliminary findings indicate that this approach surpasses common Reinforcement Learning techniques in terms of data efficiency by orders of magnitude.
To learn more, set your reminder for the livestream now on your preferred platform:
- YouTube: https://t.co/66Xm1SpDC8
- LinkedIn: https://t.co/JEwoyT7Z9R
- X: SingularityNET