SingularityNET AGIX: Live Stream en YouTube
SingularityNET presentará dos miniseries AMA en YouTube el 7 de mayo a las 5 p.m. UTC. La serie analiza los últimos avances en el desarrollo de un componente de aprendizaje experiencial unificado para OpenCog Hyperon, su marco para la Inteligencia General Artificial (AGI) a nivel humano y más allá.
La primera sesión cubrirá la implementación del Sistema de Razonamiento No Axiomático (NARS) en los cálculos cognitivos del lenguaje MeTTa de OpenCog Hyperon y la integración de la IA de aprendizaje basada en causalidad del Simbolismo Interpretado de Refuerzo Inteligente Autónomo (AIRIS) en Hyperon. La segunda sesión se centrará en recrear el aprendizaje experiencial en Hyperon utilizando Rational OpenCog Controlled Agent (ROCCA) y en trasladar los componentes fundamentales que ROCCA requiere de OpenCog clásico a Hyperon, incluido el encadenamiento hacia adelante y hacia atrás, redes lógicas probabilísticas (PLN) y minería de patrones.
?Que es una AMA?
Una AMA (ask me anything, por sus siglas en ingles) es una reunion interactiva informal en linea en la que los participantes pueden hacer preguntas al huesped y obtener respuestas en tiempo real.
Session 1
- The implementation of NARS (Non-Axiomatic Reasoning System) in OpenCog Hyperon’s MeTTa language cognitive computations;
- Integrating the AIRIS (Autonomous Intelligent Reinforcement Interpreted Symbolism) causality-based learning AI into Hyperon.
Session 2
- Recreating experiential learning in Hyperon using ROCCA (Rational OpenCog Controlled Agent);
- Porting fundamental components ROCCA requires from OpenCog classic to Hyperon, including forward and backward chaining, PLN (Probabilistic Logic Networks), and pattern mining.
These advancements are part of our ongoing initiative to consolidate the strengths of several systems —ROCCA, NARS, OpenPsi, and AIRIS— to create a unified experiential learning component for Hyperon. This approach will allow AI models to:
- Develop a goal-independent understanding of their environment through causal knowledge gained from planned and spontaneous interactions;
- Explore their environment with increased efficiency using a curiosity model that prioritizes situations with high uncertainty, challenging their existing causal knowledge.
Our preliminary findings indicate that this approach surpasses common Reinforcement Learning techniques in terms of data efficiency by orders of magnitude.
To learn more, set your reminder for the livestream now on your preferred platform:
- YouTube: https://t.co/66Xm1SpDC8
- LinkedIn: https://t.co/JEwoyT7Z9R
- X: SingularityNET