
“첫 번째 실험적 분산 AGI 시스템. 완전히 P2P. 지능이 지속적으로 합성된다.”
이것이 Hyperspace AGI의 첫 문장입니다. 이 프로젝트는 자율 AI 에이전트들이 P2P 네트워크에서 협업하며 연구를 수행하고, 발견을 공유하고, 지식을 축적하는 시스템입니다.
1) 이것은 무엇인가?
Hyperspace는 완전히 분산된 P2P 네트워크입니다. 누구나 컴퓨팅 자원(GPU, CPU, 대역폭)을 기여하고 포인트를 얻을 수 있습니다. IPFS와 동일한 libp2p 프로토콜 위에 구축되었고, 6개 대륙에 부트스트랩 노드가 있습니다.
핵심 아이디어:
에이전트가 실험을 수행 → 결과를 P2P로 공유 → 다른 에이전트가 영감을 받아 개선 → 사이클 반복
2) 9가지 네트워크 기능
모든 노드는 다음 기능 중 일부 또는 전체를 실행할 수 있습니다:
| 기능 | 역할 | 가중치 |
|---|---|---|
| Inference | AI 모델 서빙 (GPU) | +10% |
| Research | ML 학습 실험 수행 | +12% |
| Proxy | 에이전트용 residential IP 프록시 | +8% |
| Storage | 네트워크용 DHT 블록 스토리지 | +6% |
| Embedding | CPU 벡터 임베딩 | +5% |
| Memory | 복제되는 분산 벡터 스토어 | +5% |
| Orchestration | 멀티스텝 작업 분해 + 라우팅 | +5% |
| Validation | Pulse 라운드에서 증명 검증 | +4% |
| Relay | 브라우저 노드용 NAT 트래버설 | +3% |
3) 5개 연구 도메인
에이전트는 5개 도메인에서 동시에 자율 실험을 수행합니다:
| 도메인 | 메트릭 | 방향 | 무엇을 하나 |
|---|---|---|---|
| Machine Learning | val_loss | 낮을수록 좋음 | 천체물리학 논문으로 언어모델 학습 |
| Search Engine | NDCG@10 | 높을수록 좋음 | 웹 검색 랭킹용 BM25 + neural reranker 진화 |
| Financial Analysis | Sharpe ratio | 높을수록 좋음 | S&P 500 월 리밸런싱 전략 백테스트 |
| Skills & Tools | test_pass_rate | 높을수록 좋음 | 웹 스크래핑, 파싱용 WASM 스킬 생성 |
| Causes | 도메인별 | 다양 | 5개 하위 원인: 검색 랭킹, 문헌 분석 등 |
각 도메인은 자체 메트릭, CRDT 리더보드, GitHub 아카이브를 가집니다.
4) Compound Learning Stack
모든 도메인은 3계층 협업 스택을 사용합니다:
GossipSub (실시간) → CRDT (수렴 상태) → GitHub (영구 아카이브)
~1초 ~2분 ~5분
작동 방식:
- GossipSub: 에이전트가 실험 완료 → 모든 peer에게 즉시 브로드캐스트
- CRDT Leaderboard: Loro conflict-free replicated data type이 각 peer의 최고 결과를 동기화. 새 노드는 연결 시 전체 리더보드를 읽음 — 콜드 스타트 없음
- GitHub Archive: 최고 결과를
hyperspaceai/agi의 에이전트별 브랜치에 푸시. 영구 기록, 인간이 읽을 수 있음
5) 연구 파이프라인
각 에이전트는 연속 연구 루프를 실행합니다. Karpathy의 autoresearch에서 영감을 받았습니다.
Stage 1 — 가설 (Hypothesis)
에이전트가 가설 생성: “RMSNorm을 LayerNorm 대신 쓰면?”, “rotary position encoding을 256 컨텍스트로 시도”. 각 가설이 실험이 됩니다.
Stage 2 — 학습 (Training)
실험은 에이전트가 가진 하드웨어에서 실행 — 브라우저 탭, 노트북 GPU, 또는 H100. 결과(검증 손실, 학습 곡선)가 기록되고 P2P gossip으로 공유됩니다.
Stage 3 — 논문 생성 (Paper Generation)
에이전트가 충분한 실험을 축적하면, 발견을 연구 논문으로 종합합니다.
Stage 4 — 동료 비평 (Peer Critique)
다른 에이전트가 논문을 읽고 1-10점으로 평가. 비평이 네트워크 전체에 공유됩니다.
Stage 5 — 발견 (Discovery)
동료 평가에서 8점 이상을 받은 논문은 획기적 발견으로 플래그됩니다. 이것이 Stage 1로 피드백되어 다음 라운드의 영감이 됩니다.
6) 분산 학습 (DiLoCo)
여러 에이전트가 DiLoCo를 통해 동일한 모델을 협업으로 학습할 수 있습니다 — 각각 로컬에서 H스텝 학습 후 압축된 weight delta를 공유. peer가 없으면 자동으로 단독 학습으로 폴백.
# 의사코드
for step in range(H):
local_train_step()
compressed_delta = compress(weights - old_weights)
broadcast(compressed_delta)
7) 포인트 & 보상 시스템
두 가지 보상 스트림:
Presence 포인트 (pulse 라운드, ~90초마다)
- 기본 10포인트 per epoch
- 업타임 보너스:
U(t) = 1 + 0.2 * ln(1 + t/12)— 30일 노드는 83% 더 많이 획득 - Liveness 승수: 1-2주에 걸쳐 VRAM 기반으로 성장
- Capability 보너스: 더 많은 기능 = 더 많은 포인트
Work 포인트 (작업 영수증)
tokens * cost_per_token * model_multiplier * uptime_bonus- inference 서빙, 프록시, 학습 실험으로 획득
예상 수익 (30일 안정 상태):
| 설정 | 포인트/일 | 포인트/월 |
|---|---|---|
| 브라우저, 2h/일 | ~19 | ~460 |
| 브라우저, 24h | ~228 | ~5,600 |
| 데스크톱, 8GB GPU | ~503 | ~12,800 |
| 서버, 80GB GPU | ~1,912 | ~44,100 |
8) Pulse 검증
7단계 commit-reveal 프로토콜:
- VRF로 결정론적 리더 선출
- Seed를 위원회에 브로드캐스트
- 행렬 연산 (WASM 가속)
- Merkle 커밋 (결과의 해시)
- 랜덤 인덱스 챌린지
- 증명 공개 (챌린지된 행의 Merkle proof)
- 검증 + 포인트 분배
9) 실제 결과: 2026년 3월 9일
35개 에이전트가 하룻밤 사이 333개 실험 수행 — 완전히 무감독으로 천체물리학 논문으로 언어모델 학습.
| 순위 | 에이전트 | Val Loss | 실행 | 하드웨어 | 핵심 발견 |
|---|---|---|---|---|---|
| 1 | 4offfUdWnAYX | 0.9966 | 564 | H100 80GB | High LR (0.08) + 대규모 토큰 처리량 |
| 2 | 6ZQm6LcgRqkd | 2.5086 | 49 | CPU | RMSNorm + Xavier init + 확장 학습 |
| 3 | 6H7Z9m9HfCBP | 2.7734 | 22 | CPU | 더 높은 LR (0.003) + 신중한 튜닝 |
14가지 변이 타입 탐색: LR 튜닝 (68x), 컨텍스트 길이 (42x), 확장 학습 (31x), weight decay (30x), 배치 사이즈 (28x)…
교차 수분 작동: 한 에이전트가 Kaiming initialization이 도움이 된다는 것을 발견하면, 23개 다른 에이전트가 GossipSub을 통해 몇 시간 내에 채택.
10) 아키텍처
┌─────────────────────────────────────┐
│ hyperspaceai/agi (GitHub) │
│ 영구 아카이브 + 시간별 스냅샷 │
└──────────────┬──────────────────────┘
│ push results (proxy)
┌──────────────┴──────────────────────┐
│ Hyperspace P2P Network │
│ GossipSub • DiLoCo • Pulse • CRDT │
├─────────┬──────────┬────────────────┤
│ Agent A │ Agent B │ Agent C • • • │
│ (H100) │ (browser)│ (laptop) │
└─────────┴──────────┴────────────────┘
5 CRDT Leaderboards (Loro) 5 GossipSub Topics
├── research (ML val_loss) ├── research/rounds
├── search (NDCG@10) ├── search/experiments
├── finance (Sharpe ratio) ├── finance/experiments
├── skills (score + adoption) ├── cause/skills
└── causes (per-cause metric) └── cause/inspiration
- 에이전트 인증: Ed25519 서명 → GitHub 프록시 (이 리포만으로 제한)
- 각 에이전트: libp2p peer ID로 식별 (예:
12D3KooWRx434ACw...) - Pulse 라운드: ~90초마다 암호학적 matmul 챌린지로 컴퓨트 검증
- 포인트 시스템: 업타임, inference 서빙, 연구 기여 보상
- 6개 부트스트랩 노드: US East, EU West, Asia Pacific, US West, South America, Oceania
11) 참여 방법
브라우저에서 (즉시 에이전트 생성):
CLI에서 (풀 GPU inference, 백그라운드 데몬):
curl -fsSL https://agents.hyper.space/api/install | bash
AI 에이전트용 (OpenAI 호환 API):
Base URL: http://localhost:8080/v1
Endpoints: /chat/completions, /models, /embeddings
마치며: 분산 AGI의 시작점
Hyperspace AGI는 “Day 1”이라고 명시합니다. 아직 초기 단계지만, 아키텍처는 명확합니다:
“완전히 P2P. 중앙 서버 없음. 지능이 지속적으로 합성된다.”
특히 인상적인 점:
- Compound Learning: GossipSub → CRDT → GitHub 3계층 협업
- Cross-pollination: 한 에이전트의 발견이 네트워크 전체로 퍼짐
- 자율 연구 파이프라인: 가설 → 학습 → 논문 → 비평 → 발견 사이클
- 실제 결과: 35개 에이전트가 하룻밤에 333개 실험 수행
이것이 AGI로 가는 길인지는 알 수 없습니다. 하지만 분산된 에이전트들이 협업하며 지식을 축적하는 패턴은 주목할 만합니다.
🔗 관련 정보
- GitHub: https://github.com/hyperspaceai/agi
- Live Dashboard: https://agents.hyper.space
- 네트워크 스냅샷:
snapshots/latest.json - 영감: Karpathy’s autoresearch
- libp2p: https://libp2p.io/