SingularityNET AGIX: Trực tiếp trên YouTube
SingularityNET sẽ tổ chức hai chuỗi AMA nhỏ trên YouTube vào ngày 7 tháng 5 lúc 5 giờ chiều UTC. Loạt bài này thảo luận về những tiến bộ mới nhất trong việc phát triển thành phần học tập trải nghiệm thống nhất cho OpenCog Hyperon, khuôn khổ của họ dành cho Trí tuệ nhân tạo tổng hợp (AGI) ở cấp độ con người và hơn thế nữa.
Phiên đầu tiên sẽ đề cập đến việc triển khai Hệ thống suy luận phi tiên đề (NARS) trong tính toán nhận thức bằng ngôn ngữ MeTTa của OpenCog Hyperon và việc tích hợp AI học tập dựa trên quan hệ nhân quả dựa trên Biểu tượng được giải thích tăng cường thông minh tự động (AIRIS) vào Hyperon. Phiên thứ hai sẽ tập trung vào việc tái tạo hoạt động học tập trải nghiệm trong Hyperon bằng cách sử dụng Rational OpenCog Controlled Agent (ROCCA) và chuyển các thành phần cơ bản mà ROCCA yêu cầu từ OpenCog cổ điển sang Hyperon, bao gồm chuỗi tiến và lùi, Mạng logic xác suất (PLN) và khai thác mẫu.
AMA là gì?
AMA (ask me anything) thường là một buổi họp mặt tương tác trực tuyến không chính thức nơi người tham gia có thể đưa ra thắc mắt và được trả lời trong thời gian thật.
Session 1
- The implementation of NARS (Non-Axiomatic Reasoning System) in OpenCog Hyperon’s MeTTa language cognitive computations;
- Integrating the AIRIS (Autonomous Intelligent Reinforcement Interpreted Symbolism) causality-based learning AI into Hyperon.
Session 2
- Recreating experiential learning in Hyperon using ROCCA (Rational OpenCog Controlled Agent);
- Porting fundamental components ROCCA requires from OpenCog classic to Hyperon, including forward and backward chaining, PLN (Probabilistic Logic Networks), and pattern mining.
These advancements are part of our ongoing initiative to consolidate the strengths of several systems —ROCCA, NARS, OpenPsi, and AIRIS— to create a unified experiential learning component for Hyperon. This approach will allow AI models to:
- Develop a goal-independent understanding of their environment through causal knowledge gained from planned and spontaneous interactions;
- Explore their environment with increased efficiency using a curiosity model that prioritizes situations with high uncertainty, challenging their existing causal knowledge.
Our preliminary findings indicate that this approach surpasses common Reinforcement Learning techniques in terms of data efficiency by orders of magnitude.
To learn more, set your reminder for the livestream now on your preferred platform:
- YouTube: https://t.co/66Xm1SpDC8
- LinkedIn: https://t.co/JEwoyT7Z9R
- X: SingularityNET