SingularityNET AGIX: Transmissão ao vivo no YouTube
SingularityNET apresentará duas minisséries AMA no YouTube no dia 7 de maio às 17h UTC. A série discute os últimos avanços no desenvolvimento de um componente unificado de aprendizagem experiencial para OpenCog Hyperon, sua estrutura para Inteligência Geral Artificial (AGI) no nível humano e além.
A primeira sessão cobrirá a implementação do Sistema de Raciocínio Não Axiomático (NARS) nos cálculos cognitivos da linguagem MeTTa do OpenCog Hyperon e a integração da IA de aprendizagem baseada em causalidade do Simbolismo Interpretado por Reforço Inteligente Autônomo (AIRIS) no Hyperon. A segunda sessão se concentrará na recriação da aprendizagem experiencial no Hyperon usando o Rational OpenCog Controlled Agent (ROCCA) e na portabilidade de componentes fundamentais que o ROCCA exige do OpenCog clássico para o Hyperon, incluindo encadeamento direto e reverso, redes lógicas probabilísticas (PLN) e mineração de padrões.
O que e AMA?
Um AMA (do ingles, "ask me something") e uma reuniao informal interativa que normalmente e realizada on-line, onde os participantes sao livres para fazer perguntas aos convidados e obter respostas em tempo real.
Session 1
- The implementation of NARS (Non-Axiomatic Reasoning System) in OpenCog Hyperon’s MeTTa language cognitive computations;
- Integrating the AIRIS (Autonomous Intelligent Reinforcement Interpreted Symbolism) causality-based learning AI into Hyperon.
Session 2
- Recreating experiential learning in Hyperon using ROCCA (Rational OpenCog Controlled Agent);
- Porting fundamental components ROCCA requires from OpenCog classic to Hyperon, including forward and backward chaining, PLN (Probabilistic Logic Networks), and pattern mining.
These advancements are part of our ongoing initiative to consolidate the strengths of several systems —ROCCA, NARS, OpenPsi, and AIRIS— to create a unified experiential learning component for Hyperon. This approach will allow AI models to:
- Develop a goal-independent understanding of their environment through causal knowledge gained from planned and spontaneous interactions;
- Explore their environment with increased efficiency using a curiosity model that prioritizes situations with high uncertainty, challenging their existing causal knowledge.
Our preliminary findings indicate that this approach surpasses common Reinforcement Learning techniques in terms of data efficiency by orders of magnitude.
To learn more, set your reminder for the livestream now on your preferred platform:
- YouTube: https://t.co/66Xm1SpDC8
- LinkedIn: https://t.co/JEwoyT7Z9R
- X: SingularityNET