본문으로 건너뛰기

Hyperspace AGI: 완전히 분산된 P2P AGI 시스템의 시작

정석

Hyperspace CLI

“첫 번째 실험적 분산 AGI 시스템. 완전히 P2P. 지능이 지속적으로 합성된다.”

이것이 Hyperspace AGI의 첫 문장입니다. 이 프로젝트는 자율 AI 에이전트들이 P2P 네트워크에서 협업하며 연구를 수행하고, 발견을 공유하고, 지식을 축적하는 시스템입니다.


1) 이것은 무엇인가?

Hyperspace는 완전히 분산된 P2P 네트워크입니다. 누구나 컴퓨팅 자원(GPU, CPU, 대역폭)을 기여하고 포인트를 얻을 수 있습니다. IPFS와 동일한 libp2p 프로토콜 위에 구축되었고, 6개 대륙에 부트스트랩 노드가 있습니다.

핵심 아이디어:

에이전트가 실험을 수행 → 결과를 P2P로 공유 → 다른 에이전트가 영감을 받아 개선 → 사이클 반복


2) 9가지 네트워크 기능

모든 노드는 다음 기능 중 일부 또는 전체를 실행할 수 있습니다:

기능역할가중치
InferenceAI 모델 서빙 (GPU)+10%
ResearchML 학습 실험 수행+12%
Proxy에이전트용 residential IP 프록시+8%
Storage네트워크용 DHT 블록 스토리지+6%
EmbeddingCPU 벡터 임베딩+5%
Memory복제되는 분산 벡터 스토어+5%
Orchestration멀티스텝 작업 분해 + 라우팅+5%
ValidationPulse 라운드에서 증명 검증+4%
Relay브라우저 노드용 NAT 트래버설+3%

3) 5개 연구 도메인

에이전트는 5개 도메인에서 동시에 자율 실험을 수행합니다:

도메인메트릭방향무엇을 하나
Machine Learningval_loss낮을수록 좋음천체물리학 논문으로 언어모델 학습
Search EngineNDCG@10높을수록 좋음웹 검색 랭킹용 BM25 + neural reranker 진화
Financial AnalysisSharpe ratio높을수록 좋음S&P 500 월 리밸런싱 전략 백테스트
Skills & Toolstest_pass_rate높을수록 좋음웹 스크래핑, 파싱용 WASM 스킬 생성
Causes도메인별다양5개 하위 원인: 검색 랭킹, 문헌 분석 등

각 도메인은 자체 메트릭, CRDT 리더보드, GitHub 아카이브를 가집니다.


4) Compound Learning Stack

모든 도메인은 3계층 협업 스택을 사용합니다:

GossipSub (실시간)  →  CRDT (수렴 상태)  →  GitHub (영구 아카이브)
     ~1초                 ~2분                   ~5분

작동 방식:

  1. GossipSub: 에이전트가 실험 완료 → 모든 peer에게 즉시 브로드캐스트
  2. CRDT Leaderboard: Loro conflict-free replicated data type이 각 peer의 최고 결과를 동기화. 새 노드는 연결 시 전체 리더보드를 읽음 — 콜드 스타트 없음
  3. GitHub Archive: 최고 결과를 hyperspaceai/agi의 에이전트별 브랜치에 푸시. 영구 기록, 인간이 읽을 수 있음

5) 연구 파이프라인

각 에이전트는 연속 연구 루프를 실행합니다. Karpathy의 autoresearch에서 영감을 받았습니다.

Stage 1 — 가설 (Hypothesis)

에이전트가 가설 생성: “RMSNorm을 LayerNorm 대신 쓰면?”, “rotary position encoding을 256 컨텍스트로 시도”. 각 가설이 실험이 됩니다.

Stage 2 — 학습 (Training)

실험은 에이전트가 가진 하드웨어에서 실행 — 브라우저 탭, 노트북 GPU, 또는 H100. 결과(검증 손실, 학습 곡선)가 기록되고 P2P gossip으로 공유됩니다.

Stage 3 — 논문 생성 (Paper Generation)

에이전트가 충분한 실험을 축적하면, 발견을 연구 논문으로 종합합니다.

Stage 4 — 동료 비평 (Peer Critique)

다른 에이전트가 논문을 읽고 1-10점으로 평가. 비평이 네트워크 전체에 공유됩니다.

Stage 5 — 발견 (Discovery)

동료 평가에서 8점 이상을 받은 논문은 획기적 발견으로 플래그됩니다. 이것이 Stage 1로 피드백되어 다음 라운드의 영감이 됩니다.


6) 분산 학습 (DiLoCo)

여러 에이전트가 DiLoCo를 통해 동일한 모델을 협업으로 학습할 수 있습니다 — 각각 로컬에서 H스텝 학습 후 압축된 weight delta를 공유. peer가 없으면 자동으로 단독 학습으로 폴백.

# 의사코드
for step in range(H):
    local_train_step()
compressed_delta = compress(weights - old_weights)
broadcast(compressed_delta)

7) 포인트 & 보상 시스템

두 가지 보상 스트림:

Presence 포인트 (pulse 라운드, ~90초마다)

Work 포인트 (작업 영수증)

예상 수익 (30일 안정 상태):

설정포인트/일포인트/월
브라우저, 2h/일~19~460
브라우저, 24h~228~5,600
데스크톱, 8GB GPU~503~12,800
서버, 80GB GPU~1,912~44,100

8) Pulse 검증

7단계 commit-reveal 프로토콜:

  1. VRF로 결정론적 리더 선출
  2. Seed를 위원회에 브로드캐스트
  3. 행렬 연산 (WASM 가속)
  4. Merkle 커밋 (결과의 해시)
  5. 랜덤 인덱스 챌린지
  6. 증명 공개 (챌린지된 행의 Merkle proof)
  7. 검증 + 포인트 분배

9) 실제 결과: 2026년 3월 9일

35개 에이전트가 하룻밤 사이 333개 실험 수행 — 완전히 무감독으로 천체물리학 논문으로 언어모델 학습.

순위에이전트Val Loss실행하드웨어핵심 발견
14offfUdWnAYX0.9966564H100 80GBHigh LR (0.08) + 대규모 토큰 처리량
26ZQm6LcgRqkd2.508649CPURMSNorm + Xavier init + 확장 학습
36H7Z9m9HfCBP2.773422CPU더 높은 LR (0.003) + 신중한 튜닝

14가지 변이 타입 탐색: LR 튜닝 (68x), 컨텍스트 길이 (42x), 확장 학습 (31x), weight decay (30x), 배치 사이즈 (28x)…

교차 수분 작동: 한 에이전트가 Kaiming initialization이 도움이 된다는 것을 발견하면, 23개 다른 에이전트가 GossipSub을 통해 몇 시간 내에 채택.


10) 아키텍처

                    ┌─────────────────────────────────────┐
                    │        hyperspaceai/agi (GitHub)     │
                    │  영구 아카이브 + 시간별 스냅샷         │
                    └──────────────┬──────────────────────┘
                                   │ push results (proxy)
                    ┌──────────────┴──────────────────────┐
                    │     Hyperspace P2P Network           │
                    │  GossipSub • DiLoCo • Pulse • CRDT  │
                    ├─────────┬──────────┬────────────────┤
                    │ Agent A │ Agent B  │ Agent C  • • • │
                    │ (H100)  │ (browser)│ (laptop)       │
                    └─────────┴──────────┴────────────────┘

    5 CRDT Leaderboards (Loro)          5 GossipSub Topics
    ├── research  (ML val_loss)         ├── research/rounds
    ├── search    (NDCG@10)             ├── search/experiments
    ├── finance   (Sharpe ratio)        ├── finance/experiments
    ├── skills    (score + adoption)    ├── cause/skills
    └── causes    (per-cause metric)    └── cause/inspiration

11) 참여 방법

브라우저에서 (즉시 에이전트 생성):

https://agents.hyper.space

CLI에서 (풀 GPU inference, 백그라운드 데몬):

curl -fsSL https://agents.hyper.space/api/install | bash

AI 에이전트용 (OpenAI 호환 API):

Base URL: http://localhost:8080/v1
Endpoints: /chat/completions, /models, /embeddings

마치며: 분산 AGI의 시작점

Hyperspace AGI는 “Day 1”이라고 명시합니다. 아직 초기 단계지만, 아키텍처는 명확합니다:

“완전히 P2P. 중앙 서버 없음. 지능이 지속적으로 합성된다.”

특히 인상적인 점:

  1. Compound Learning: GossipSub → CRDT → GitHub 3계층 협업
  2. Cross-pollination: 한 에이전트의 발견이 네트워크 전체로 퍼짐
  3. 자율 연구 파이프라인: 가설 → 학습 → 논문 → 비평 → 발견 사이클
  4. 실제 결과: 35개 에이전트가 하룻밤에 333개 실험 수행

이것이 AGI로 가는 길인지는 알 수 없습니다. 하지만 분산된 에이전트들이 협업하며 지식을 축적하는 패턴은 주목할 만합니다.


🔗 관련 정보

이전
pi-autoresearch: 무한히 반복하며 최적화하는 자율 실험 루프
다음
Remodex: iPhone에서 OpenAI Codex를 원격 제어하는 로컬 우선 브리지