

목차
1. 웹3 AI도 표준이 필요하다
2. AI 인프라 레이어를 구축하는 Lumera
3. Lumera의 AI 인프라 스택
4. 웹3 AI 생태계에서 Lumera의 포지셔닝
5. $LUME 토크노믹스
6. 마무리: 이제 증명이 필요하다
1. 웹3 AI도 표준이 필요하다
출처: 코인베이스 블로그, 파편화되어 있는 수많은 웹3 AI 서비스들
웹3에서 AI 서비스를 구현하려면 모델을 실행할 컴퓨팅, 방대한 데이터를 담을 스토리지, 온체인에서 결과를 검증·기록할 블록체인, 그리고 이 모든 것을 서비스와 매끄럽게 이어주는 통합 레이어가 필요하다. 하지만 현재 웹3는 기능이 프로젝트별로 흩어져 있고 규격도 제각각이라, 팀이 직접 각 기능을 따로 연결하고 데이터 전송을 위한 통신 방식, 사용량 정산 로직까지 일일이 구현해야 하는 불편함이 존재한다. 이 과정은 시간과 비용이 과도하게 들고 복잡하며, 운영 부담과 오류로 이어지기 쉽다.
반면 웹2 기반 서비스는 통합적으로 인프라를 제공하는 기업들(AWS, GCP, Azure 등)이 존재하며, 표준화된 데이터 통신 표준(HTTP/SMTP)과 API Key 기반의 과금 체계가 잘 마련되어 있어 AI 서비스 구현 과정이 비교적 매끄럽게 이루어진다. 마찬가지로, 웹3 AI 생태계가 본격적으로 성장하기 위해서는, 컴퓨팅·스토리지·블록체인·결제·신원 등 흩어져 있는 기능들을 하나의 흐름 속에서 사용할 수 있도록 표준화된 통합 프레임워크가 필요하다.
Lumera는 이러한 문제를 해결하기 위해, AI 업계에서 이미 활발히 논의되고 있는 *Model Context Protocol(MCP)를 웹3 환경에 온체인 네이티브 방식으로 구현하고자 한다. 이를 통해 외부 모듈과 서비스를 매끄럽게 연결하여, 온체인 AI 서비스가 필요로 하는 모든 기능을 하나의 통합된 표준 인프라 레이어에서 제공하는 것을 목표로 한다. 아울러 Lumera는 자체 모듈과 에이전트를 통해 기능적 확장성을 제공하고, 토크노믹스 모델을 도입해 이러한 과정이 자동적이고 안전하게 운영될 수 있도록 지원하는 웹3 표준 인프라로 발전하고자 한다.
-
Model Context Protocol(MCP): AI에 다양한 외부 데이터, 프로그램 등을 쉽게 연결해서 쓸 수 있도록 만든 표준 프로토콜로, 24년 11월 Anthropic이 처음 발표했고, Cursor와 OpenAI도 MCP를 지원하며 AI 산업의 표준이 되고 있다.
출처: Norah Sakal Blog, MCP는 AI 생태계에서 일종의 USB 허브와 같은 역할을 한다
2. AI 인프라 레이어를 구축하는 Lumera
Lumera는 2020년 NFT 특화 블록체인인 Pastel Network에서 출발했다. Pastel은 콘텐츠 영구 저장, 중복 검출, 진위 검증 등 디지털 자산 보호 기능을 중심으로 성장했으며, 이후 AI 추론과 데이터 무결성까지 지원하는 풀스택 인프라로 발전해왔다. 그리고 2025년 5월, Pastel은 CometBFT 합의 구조를 기반으로 한 더욱 빠르고 상호운용성이 높은 블록체인인 Lumera Protocol로 전환하였다. 본 장에서는 Lumera가 어떠한 기술적 개선을 이뤘는지, 그리고 이러한 변화가 웹3 AI 인프라 레이어로서 어떤 의미를 갖는지를 살펴본다.
CometBFT (PoS) 합의 전환
Lumera는 처음에 ZCash 코드베이스를 기반으로 한 UTXO + PoW 구조로 출발했다. 이는 2020년 당시 여러 레이어1 체인들이 일반적으로 채택하던 방식이었고, 일정 수준의 안정성이 검증된 합의 구조였기에 선택된 것이다. 그러나 PoW 체인의 구조상의 한계로 인해 블록 생성에 약 2.5분이 소요되는 등 속도가 지나치게 느렸고, 막대한 전력을 소모하는 채굴 방식에 대한 우려도 커지면서 합의 구조 전환의 필요성이 제기되었다. 이에 Lumera는 Cosmos SDK 기반의 CometBFT 합의로 전환해 보다 빠르고 효율적인 체인으로 도약했다. 이를 통해 실시간에 가까운 AI 워크로드 처리가 가능해졌고, 툴 호출 지연을 낮춰 에이전트 워크플로우를 실사용 수준으로 끌어올렸다.
IBC 크로스체인 전환
Cosmos SDK 전환과 함께 IBC(Inter-Blockchain Communication) 기반의 상호운용성도 크게 강화되었다. 과거 UTXO 구조에서는 Lumera와 다른 프로젝트를 연동하는 과정에서 기술적 제약과 통합 부담이 컸지만, 이제는 IBC를 통해 다양한 체인과 서비스가 손쉽게 연결될 수 있다. 그 결과 Lumera는 고립된 생태계가 아닌, 누구나 쉽게 통합할 수 있는 표준 인프라 레이어로 발전할 수 있는 기술적 토대를 확보했다.
노드 구조 변경
Lumera는 기존에 블록체인을 운영하는 노드를 Validator와 SuperNode로 구분해왔다. Validator는 체인을 검증하며 블록 보상의 약 80%를 보상으로 받았고, SuperNode는 스토리지, AI 추론, 진위성 검증 등 복잡한 실행을 담당하며 토큰 스테이킹에 따른 20%의 블록 보상과 서비스 수수료 기반으로 운영되었다. 그러나 Lumera 업데이트 이후에는 Validator와 SuperNode가 모두 PoS 기반으로 전환되었으며, Validator를 운영해야 SuperNode를 운영할 수 있는 조건부 구조로 바뀌었다. 이는 Validator 스테이킹을 반드시 요구함으로써 합의 계층과 서비스 계층을 하나의 책임 구조로 묶어 Validator와 SuperNode 모두의 악의적 행위 가능성을 줄이기 위한 설계다. 결과적으로 네트워크 보안과 서비스 품질을 함께 강화하며, 안정성과 운영 일관성을 높이게 되었다. 구체적인 Validator/SuperNode 구조는 3장에서 상세히 설명한다.
Lumera는 Pastel 시절과 비교해 많은 부분이 달라졌지만, 핵심 서비스였던 Cascade, Sense, Inference 모듈은 그대로 계승해 Cosmos 아키텍처에 맞게 재설계했다. 이 세 가지 모듈은 이미 실사용 환경에서 충분히 검증된 기능으로, Lumera는 이를 현대적 구조 위에서 다시 구현함으로써 안정성과 확장성을 강화했다.
3. Lumera의 AI 인프라 스택
Lumera는 범용 체인이 아니라, 탈중앙화 AI를 위해 설계된 특화형 블록체인이다. 이 설계의 핵심에는 이중 노드 구조, 탈중앙화된 실행 모듈, 그리고 Action&Agent 프레임워크가 있다. 이 요소들이 결합해 Lumera를 웹3 AI의 기본 인프라로 만든다. 본 장에서는 Lumera의 AI 인프라 스택을 구성하는 요소들에 대해 자세히 살펴보고자 한다.
3-1. Validator vs SuperNode
Lumera의 네트워크는 Validator와 SuperNode라는 두 가지 상호 보완적인 역할을 중심으로 운영된다. 이 구조는 네트워크 보안과 서비스 실행을 분리해, 안전한 합의와 높은 확장성을 동시에 달성하도록 설계되어 있다.
Validator는 CometBFT 기반의 PoS 합의를 통해 블록체인의 안전성과 무결성을 책임지는 역할을 한다. Validator는 블록을 제안하고 거래를 검증하며, 전체 네트워크가 합의된 상태를 유지하도록 한다. Validator는 자신이 보유하거나 위임받은 $LUME 토큰을 스테이킹해야 블록 검증에 참여할 수 있으며, 체인 검증에 따라 보상을 받는다. 현재 총 50개의 Validator가 Active 세트로 참여하고 있으며, Citadel, Cosmostation, Allnodes 등의 파트너들이 노드를 운영하고 있다.
SuperNode는 체인의 보안을 담당하는 Validator와 다르게 Lumera의 모듈형 서비스를 실행하는 고성능 노드이다. SuperNode는 Cascade(탈중앙화 영구 스토리지), Sense(콘텐츠 진위성 검증), Inference(분산 AI 연산 및 에이전트 실행)와 같은 핵심 모듈을 운영한다. SuperNode는 해당 모듈들을 실행하고, 이에 따라 PoSe(Proof-of-Service) 보상을 받으며, 만약 활성 Validator와 함께 운영할 경우 PoS 보상까지 동시에 획득할 수 있는 이중 보상 구조로 이루어져 있다. SuperNode는 Validator를 운영해야만 운영이 가능하지만, 꼭 Validator가 활성(Active) 노드 세트에 포함될 필요는 없다.
이에 따라 Lumera는 노드 운영자의 기술력·자본·참여 의지에 따라 세 가지 노드 운영 방식을 지원한다.
-
Validator Only
체인의 합의만 담당하는 방식으로, 활성 세트에 포함되어 검증을 진행해야만 PoS 보상을 받을 수 있다.
-
SuperNode Only
SuperNode는 Validator를 운영해야만 운영이 가능하지만 활성 세트에 포함될 필요는 없다. 서비스 실행에 따른 PoSe 보상만 받을 수 있으며, PoS 보상은 받지 못한다.
-
Validator + SuperNode
합의와 서비스 실행을 동시에 담당하는 방식이다. 활성 Validator로 참여하면서 SuperNode를 운영하면 PoS + PoSe 이중 보상을 받을 수 있다.
이처럼 이중 노드 구조는 다양한 운영자가 네트워크에 기여할 수 있도록 한다. 인프라 자원이 한정된 운영자는 SuperNode Only로 시작해도 유의미한 기여를 할 수 있고, 충분한 자원과 의지를 가진 운영자는 Validator와 SuperNode를 동시에 운영해 네트워크 보안과 서비스 확장을 모두 담당할 수 있다. 결과적으로 Validator는 체인의 안전성을, SuperNode는 Lumera를 AI 실행·스토리지·진위성 검증 기능을 갖춘 고성능 AI 특화 블록체인으로 만드는 역할을 수행한다.
3-2. Action 모듈 (Cascade, Sense, Inference)
Lumera의 SuperNode는 세 가지 대표 Action 모듈인 Cascade, Sense, Inference 를 실행한다. Action 모듈은 저수준(Low-Level)의 모듈형 연산으로, 데이터 저장, 진위성 검증, 연산 실행 등의 기능이 포함된다. Lumera는 이러한 모듈을 메인넷에 통합함으로서 웹3 AI에 필요한 중요한 기능들을 유저·개발자들이 온체인에서 쉽게 이용할 수 있도록 한다.
Cascade (탈중앙화 스토리지)
Cascade는 탈중앙화되고 영구적인 데이터 스토리지 서비스이다. 유사한 서비스로 Arweave나 Filecoin이 있으나, Cascade만의 차별점은 크게 두 가지다.
첫째, 데이터의 영구 저장이다. Filecoin은 저장 계약 기반으로 최소 180일에서 최대 540일 단위로 데이터를 저장하며, 계약이 끝나면 반드시 갱신해야 한다. 반면 Cascade는 한 번의 결제만으로 데이터를 영구 보관할 수 있다. 또한 데이터를 여러 SuperNode에 분산 저장하고, 일부 노드가 사라지거나 조각이 유실되더라도 시드 기반 자가치유(Self-Healing) 알고리즘을 통해 원본 데이터를 안전하게 복구할 수 있다.
둘째, Lumera와의 높은 연결성이다. Arweave나 Filecoin이 스토리지 전용 블록체인인 반면, Lumera는 AI 인프라 전반을 위한 범용 Layer 1 블록체인이다. 따라서 외부 체인을 거칠 필요 없이, Lumera 내부에서 Cascade를 바로 활용할 수 있다. 이는 AI 서비스가 데이터를 저장·호출하는 과정을 더욱 심리스하게 만들며, Lumera에서 빌딩하는 프로젝트나 팀이 탈중앙화 스토리지로서 Cascade를 채택할 경우 높은 호환성과 연결성을 기반으로 한 서비스를 제공할 수 있게 된다.
Sense (진위성 검증)
Sense는 NFT, 이미지, 동영상, 문서 등 다양한 디지털 자산에 대해 AI 기반 진위성 검증을 수행하는 모듈이다. 최근 AI를 활용해 콘텐츠를 손쉽게 제작할 수 있게 되면서 표절과 복제 문제가 빈번히 발생하고 있는데, Sense는 이러한 문제를 해결하기 위해 설계되었다.
Sense의 가장 큰 특징은 데이터 내부의 복잡한 픽셀 패턴을 분석해 상대적 희소성 점수를 부여하는 것이다. 이 점수를 통해 단순한 동일 여부 판단을 넘어 자산의 고유성을 정밀하게 평가할 수 있다. 또한 Sense는 위와 같은 크롭, 회전, 스트레치, 색상 반전 등 다양한 변형이 적용된 경우에도 중복을 탐지할 수 있어, 변형을 통한 사기나 위조를 효과적으로 방지한다.
검증 결과는 단순한 예/아니오에 그치지 않고, 소수점 둘째 자리까지 세밀한 점수를 제공함으로써 시각적 유사성의 정도를 수치로도 보여준다. 이를 통해 사용자는 자산의 희소성과 유사성을 훨씬 더 직관적으로 이해할 수 있다.
마지막으로 Sense는 오픈 API 기반으로 설계되어 다양한 플랫폼과 애플리케이션에 쉽게 통합될 수 있다. 소규모 애플리케이션부터 대규모 엔터프라이즈 환경까지 확장 가능하며, 상업적 수준의 안정성을 제공해 누구나 손쉽게 활용할 수 있는 디지털 자산 검증 솔루션이다.
Inference (AI 연산)
Inference는 Lumera를 분산형 AI 연산 네트워크로 확장하는 핵심 모듈이다. Render Network가 분산 GPU 리소스를 활용해 주로 렌더링에 집중하는 반면, Inference는 LLM 실행과 에이전트 워크플로우에 특화되어 있다는 점에서 차별화된다.
Inference의 주요 기능은 다음과 같다. 첫째, SuperNode를 통한 AI 모델 호스팅으로 다양한 머신러닝 및 LLM 모델을 배포·운영할 수 있다. 둘째, AI 스마트 컨트랙트를 지원해 온체인 계약 로직에 직접 AI 의사결정을 도입할 수 있다. 셋째, 에이전트와 결합해 복잡한 워크플로우를 자동화하고 대규모 연산을 분산 처리할 수 있다. 마지막으로, 모델 마켓플레이스를 통해 다양한 사전학습 모델을 선택하고 활용할 수 있다.
Lumera 사용자는 Lumera AI Credit을 지불하여 연산을 요청하며, SuperNode는 지원 가능한 모델 종류에 따라 작업을 수행한다. 결과는 여러 SuperNode에서 교차 검증되어 일관성이 보장되며, 이는 단일 제공자에 의존하는 기존 Web2 AI 서비스와 달리 탈중앙화된 환경에서 신뢰성을 강화한다.
이러한 구조를 기반으로 Lumera는 단순한 AI 실행을 넘어 에이전트 기반 워크플로우와 온체인 애플리케이션까지 아우르는 AI 인프라 레이어로 자리잡는다. 이를 통해 dApp은 동적 분석, 개인화된 콘텐츠 생성, AI 기반 상호작용을 직접 구현할 수 있으며, Lumera는 웹3 환경에서 신뢰할 수 있는 AI 백엔드로 기능하게 된다.
3-3. Lumera 생태계의 게이트웨이, ‘Lumera Hub’
Lumera의 핵심 모듈들은 개발자뿐 아니라 일반 유저들도 손쉽게 체험할 수 있도록, Lumera Hub라는 일반 유저들을 위한 인터페이스에서 제공될 예정이다. Hub는 단순한 대시보드가 아니라 Lumera 생태계의 ‘게이트웨이’ 역할을 하며, 사용자는 직관적인 UI를 통해 Lumera가 제공하는 다양한 서비스를 직접 경험할 수 있다.
예를 들어 Cascade에서는 사용자가 원하는 파일을 단순히 드래그&드롭 하는 것만으로 Lumera 스토리지에 영구 저장할 수 있다. 업로드한 데이터는 SuperNode들이 스토리지에 분산하여 저장하고, 그 기록을 Lumera 체인에 남기기 때문에 무결성이 보장되며, 영구 저장된다.
Sense에서는 업로드한 이미지나 콘텐츠의 진위성 검증을 맡길 수 있다. 이를 통해 유저는 이미지가 기존 자료와 얼마나 유사한지, 혹은 AI 생성물일 가능성이 얼마나 되는지를 수치화된 지표로 확인할 수 있다. 이는 NFT, 예술작품, 생성형 AI 콘텐츠 검증 등에 유용하게 사용될 수 있다.
Inference는 사용자가 원하는 LLM 모델을 직접 선택해 대화형 AI 기능을 체험할 수 있도록 한다. 단순한 채팅을 넘어, SuperNode가 분산된 GPU 연산을 수행해 응답을 제공하며, 그 과정에서 발생한 실행 기록과 비용 청구 내역이 온체인에 투명하게 공개·검증된다는 점에서 기존 웹2 기반 챗봇과 차별화된다.
또한 Lumera Hub는 단순히 모듈 체험에 그치지 않고, 유저들이 자신의 포트폴리오를 한눈에 확인할 수 있는 대시보드, 자산과 트랜잭션을 관리할 수 있는 지갑, 토큰 스왑을 지원하는 디파이, Validator 위임을 통한 스테이킹 보상, 네트워크 프로포절에 참여할 수 있는 거버넌스 등 Lumera의 주요 기능들을 통합적으로 제공한다.
결국 Lumera Hub는 블록체인 기반의 AI와 스토리지 서비스를 누구나 손쉽게 경험할 수 있는 사용자 친화적 플랫폼이다. 개발자에게는 모듈을 활용할 수 있는 빌딩 블록을, 일반 사용자에게는 직관적인 사용 환경을 제공함으로써 Lumera 생태계로 진입하는 실질적인 출발점이 된다.
3-4. Action&Agent 모델
앞서 살펴본 Cascade, Sense, Inference와 같은 Action 모듈은 Lumera 네트워크에서 수행되는 저수준(Low-Level)의 연산 단위이다. 그러나 실제 서비스나 애플리케이션은 단일 Action만으로는 해결되지 않는 복잡한 요구를 가진다. 이러한 격차를 메우는 것이 바로 Action&Agent 모델이다. 이 모델은 서비스가 요청되고 처리되는 과정을 추상화·표준화하여, 다양한 Action들을 조합해 고차원적이고 지능적인 워크플로우를 가능하게 한다.
Action은 Lumera에서 가장 기초적인 실행 단위로, 각 Action은 독립적으로 실행되며 가볍고 빠른 검증이 가능하다. 예를 들어 데이터를 영구 저장하는 Cascade, 콘텐츠의 진위성을 검증하는 Sense, 특정 AI 모델을 실행하는 Inference 등이 이에 해당한다. Action은 블록체인에서의 트랜잭션처럼 단순하면서도 신뢰성 있는 연산으로, 더 복잡한 기능을 구성하기 위한 빌딩 블록 역할을 한다.
Agent는 상위 레이어의 실행자이자 조율자로, 여러 Action을 묶어 하나의 목표를 달성한다. 단순히 Action을 나열하는 것이 아니라, 목적에 따라 올바른 순서와 조건으로 Action을 호출하고 그 결과를 연결해 완결된 서비스를 제공한다. Lumera에는 세 가지 대표적인 Agent 가 존재한다.
- InferenceAgent: AI 모델 실행 및 분석 워크플로우 담당
- DataManagementAgent: 데이터 저장·검색·복제 등 스토리지 관리 담당
- ContentCreationAgent: 텍스트·이미지 생성과 진위성 검증을 결합한 크리에이션 담당
에이전트는 각각 최적화된 기능과 역할을 부여받고 있으나, 꼭 하나의 Action만 실행할 수 있는 게 아니라 여러가지 Action을 활용하여 다양한 태스크를 수행할 수 있다. 한 유저가 뉴스 기사 요약을 요청하면 InferenceAgent가 이를 담당한다. InferenceAgent는 우선 Inference Action 모듈을 호출해 텍스트 요약 연산을 수행하고, 필요할 경우 Sense 모듈을 통해 요약된 텍스트의 진위성을 검증한다. 사용자가 원한다면 결과를 Cascade 모듈에 저장해 추후 재활용할 수도 있다. 최종적으로 Agent는 이 모든 과정을 조율해 요약 결과를 유저에게 반환하며, 이때 결제는 Lumera AI Credits로 처리된다.
즉, Action은 Lumera의 기본 언어이고, Agent는 그 언어를 조합해 의미 있는 문장과 이야기를 만들어내는 역할을 한다. 이러한 구조 덕분에 Lumera는 다양한 애플리케이션과 에이전트 기반 서비스가 충돌 없이 연결되는 생태계를 제공하며, 탈중앙화 AI 인프라로서의 경쟁력을 확립하게 된다.
3-5. Lumera의 비전: MCP 스위칭 패브릭
최근 AI 생태계는 Anthropic이 제안한 MCP(Model Context Protocol)에 맞춰 OpenAI와 Google까지 채택하면서, 이를 중심으로 빠르게 통합되는 양상을 보이고 있다. MCP는 AI 에이전트가 외부 툴과 데이터 소스에 접근할 수 있는 표준 연결 방식이 되고 있으며, AI 에이전트들이 어떤 외부의 툴이든 호출할 수 있도록 한다. 그러나 현재 MCP는 두 가지 한계를 안고 있다. 첫째, 에이전트가 MCP를 통해 동시에 너무 많은 툴 목록을 받으면 각 툴의 목적과 기능이 뒤섞여 필요한 툴을 선택하고 사용하는 과정이 복잡해지고 성능이 저하되는 툴 과부하 문제가 발생한다. 둘째, MCP는 툴마다 별도의 서버 설치, 라이선스 발급, 관리 작업이 요구된다. 즉, 새로운 툴을 추가할 때마다 MCP 서버를 따로 세팅해야 하므로 개발자와 사용자 모두에게 번거롭고 비효율적이다.
Lumera는 이러한 한계를 해결하기 위해 MCP를 Lumera 체인에 통합하고자 한다. 단순히 외부 MCP 서버를 중계하는 것이 아니라, Lumera의 합의 구조와 SuperNode 아키텍처 위에 MCP를 직접 얹어 탈중앙화된 툴 라우터이자 마켓플레이스로 기능하도록 설계했다. 이를 통해 Lumera는 단순 AI 실행 플랫폼을 넘어, 다양한 AI 툴과 서비스를 연결·조율하는 글루 레이어(Glue Layer) 역할을 수행한다.
구체적으로 Lumera의 MCP는 세 가지 핵심 요소로 구성된다.
개인화된 툴팩 (ToolPack)
사용자는 온체인에 등록된 Action과 Agent들을 필요에 따라 조합해 자신만의 툴킷을 구성할 수 있다. 이를 통해 에이전트가 모든 툴을 한꺼번에 로딩하는 비효율을 피하고, 상황에 맞는 최소한의 툴셋만 불러올 수 있다.
예산 인식 라우팅
Lumera의 MCP 라우터는 각 툴 호출 전에 예상 비용, 지연 시간, 한도를 제시한다. 사용자는 $LUME로 구매한 Lumera AI Credits를 예산 한도로 설정해 실행을 관리하며, 이를 통해 예측 가능한 범위 내에서 안전하게 툴을 활용할 수 있다.
온체인 툴 레지스트리와 서명된 영수증
모든 툴은 ToolCard 형태로 온체인에 등록되며, 호출 시 SuperNode가 서명된 사용 영수증을 발행한다. 이를 통해 투명성과 검증 가능성이 확보되고, *SLA 위반 시 스테이킹된 보증금이 슬래싱되는 구조로 신뢰성을 담보한다.
-
SLA 스테이킹 (Service-Level Agreement Bonding)
툴을 등록한 Validator(퍼블리셔)는 일정량의 $LUME를 보증금(Stake)으로 묶어두고, [최소 가용성 99%, 응답 시간 3초 이내]와 같은 SLA(서비스 수준 약속)을 지키지 못하면 보증금 일부가 슬래싱된다.
이 구조는 외부 툴 연결에 그치지 않고 Lumera의 네이티브 모듈과도 긴밀히 통합된다. Cascade는 MCP 툴로 노출되어 문서와 데이터셋의 영구 저장을 지원하고, Sense는 이미지·영상·텍스트의 진위성을 검증한다. Inference는 LLM 실행을 제공해 중앙화 API 대신 탈중앙 인프라 위에서 AI 연산을 수행할 수 있다. 즉, Lumera MCP는 외부 API 연결에 머무르지 않고 Lumera의 핵심 모듈 자체를 MCP 툴로 제공해 AI 워크플로우에 직접 통합한다.
결과적으로 Lumera의 MCP 접근은 기존 MCP의 두 가지 한계인 툴 과부하, 파편화된 서비스 제공 방식을 해소하면서, 탈중앙화 AI 생태계에서 차별적 위치를 확보한다. Lumera MCP에 온보딩되는 툴은 Validator라면 누구나 등록할 수 있는 무허가형(permissionless) 마켓플레이스에서 공급되고, 사용 과정은 예산 인식 라우팅, 서명된 영수증, SLA 스테이킹을 통해 관리되어 품질과 신뢰성이 보장된다. 또한 Lumera AI Credits 기반의 호출은 $LUME 소각으로 이어져 토큰 경제와도 직접 연결된다.
Lumera는 웹3 AI 시장에서 MCP 스위칭 패브릭으로 자리매김하려 한다. Render나 Aethir 같은 GPU DePIN, Bittensor 같은 AI 네트워크와 경쟁하기보다, 이들을 MCP 툴로 연결해 에이전트 워크플로우에 활용할 수 있도록 함으로써 탈중앙화 AI 생태계 전반을 조율하고 통합하는 핵심 허브 역할을 수행하고자 한다.
4. 웹3 AI 생태계에서 Lumera의 포지셔닝
4-1. 탈중앙화된 AI 스택 개요
웹3 AI 인프라는 크게 네 가지 축으로 나눌 수 있다.
- Agent-Native Layer 1s: AI 에이전트 실행을 염두에 둔 블록체인 인프라 (0G, KiteAI, Talus 등).
- DePIN Compute: GPU와 같은 분산 연산 자원을 공급하는 네트워크 (Render, Aethir, Grass 등).
- Data Infra: 영구적·분산형 데이터 저장을 제공하는 스토리지 계층 (Filecoin, Arweave, Walrus 등).
- Decentralized Intelligence: 분산 학습·모델 공유·지능 네트워크 (Bittensor, Allora, Sentient 등).
Lumera가 타겟하는 시장은 이 네 가지 축 전체를 포괄한다. 더 나아가 Lumera는 단순히 하나의 축에 머무르지 않고, MCP 스위칭 패브릭으로서 Render·Filecoin·Bittensor 같은 외부 인프라 프로젝트들까지도 에이전트 워크플로우 안에서 매끄럽게 연결한다. 다시 말해, 개별 프로젝트가 각자의 서비스를 제공한다면, Lumera는 이들을 하나의 흐름 속에 묶어주는 라우터이자 허브로 기능하고자 한다.
이 맥락에서 Lumera를 이해하기 위해 주요 프로젝트와의 포지셔닝을 비교하자면 다음과 같다.
이 비교에서 알 수 있듯이, 대부분의 프로젝트들은 특정 축(GPU 제공, 스토리지, 모델 네트워크)에 초점을 맞추고 있다. 반면 Lumera는 네이티브 모듈(Cascade, Sense, Inference)을 통해 각 축의 기능들을 내부적으로 소화하면서도, 동시에 MCP를 통해 외부 생태계까지 연결하는 역할을 한다.
따라서 Lumera는 단순한 AI 특화 블록체인을 넘어, AI 인프라 스택 전체를 관통하는 조정자 역할을 수행한다. 이는 Lumera가 단일 기능 체인에 머무르지 않고, 웹3 AI 인프라 전반을 연결하는 표준 인프라로서 자리매김하려는 시도이다.
4-2. Lumera의 활용 예시
Lumera의 이러한 포지셔닝은 이론적 구상에 그치지 않고 실제 서비스와 파트너십에서 구체적인 활용 사례로 이어진다. Lumera의 모듈(Cascade, Sense, Inference)과 MCP 스위칭 패브릭은 다양한 상황에서 실질적인 가치를 제공할 수 있다. 아래에서는 Lumera가 실제로 어떤 방식으로 활용될 수 있는지 몇 가지 사례를 통해 살펴본다.
NFT 및 미디어 진위성 검증
예를 들어 아티스트가 새로운 NFT를 발행할 때, Sense 모듈을 호출해 기존에 등록된 수십만 개의 NFT 들과 비교해 상대적 희소성 점수(Relative Rareness Score)를 얻을 수 있다. 이를 통해 해당 NFT가 단순 복제물이 아닌 고유한 창작물임을 보증할 수 있고, 그 결과는 온체인에 기록되어 마켓플레이스에서 신뢰 가능한 메타데이터로 활용된다. 언론사나 소셜 미디어 플랫폼 또한 Sense를 API 형태로 통합해, 이미지·영상의 진위성을 실시간 검증하고 딥페이크나 허위 정보 확산을 방지할 수 있다.
AI Inference 마켓플레이스
Lumera의 Inference 모듈을 통해 개발자와 사용자는 다양한 LLM 및 ML 모델을 Lumera에서 호출할 수 있다. 사용자는 Lumera AI 크레딧을 구매해 SuperNode에 Request를 제출하고, 결과는 여러 SuperNode에서 교차 검증되어 일관성이 확보된다. 이를 통해 중앙화 API(OpenAI, Anthropic 등)에 의존하지 않고도, 검증 가능한 실행 증명과 함께 결과를 얻을 수 있다. 예컨대 AI 콘텐츠 요약 플랫폼이 Lumera 위에서 기사 요약 서비스를 운영한다고 하자. 사용자가 긴 뉴스를 업로드하면 Inference 모듈이 여러 SuperNode에서 교차 실행되어 요약 결과를 산출한다. 이 과정에서 모든 요청은 AI 크레딧으로 결제되고, 실행 내역과 비용이 투명하게 기록된다. 따라서 플랫폼은 중앙화 API에 의존하지 않고도, 신뢰성 있는 결과와 정산 기록을 동시에 확보할 수 있다.
DeFi 에이전트 통합
Lumera MCP는 Injective와 같은 DeFi 프로토콜과 연동해 트레이딩 에이전트가 더 신뢰성 있는 데이터를 기반으로 자동 매매 전략을 실행할 수 있게 한다. 예를 들어 트레이딩 봇은 Lumera MCP를 통해 Cascade 모듈을 통해 온체인 데이터셋을 불러오고, Inference로 시장 변동 신호를 분석한 뒤, Sense로 외부 데이터의 무결성을 검증한다. 이렇게 연결된 워크플로우는 단순 가격 신호에만 의존하지 않고 검증된 데이터 기반의 AI 의사결정을 가능하게 한다.
5. $LUME 토크노믹스
5-1. 토큰 배분과 발행 구조
- 제네시스 발행량: 2억 5천만 LUME (이후 연간 5~20% 범위의 인플레이션 적용)
- 시드 세일: 10.0% (25,000,000 LUME)
- 프라이빗 세일: 15.0% (37,500,000 LUME)
- 팀: 20.0% (50,000,000 LUME)
- 어드바이저: 2.5% (6,250,000 LUME)
- 에코시스템: 35.0% (87,500,000 LUME)
- 커뮤니티 성장: 10.0% (25,000,000 LUME)
- 커뮤니티 클레임: 7.5% (18,750,000 LUME)
- 베스팅
- 시드 세일: TGE 후 6개월간 락업, 이후 6개월마다 20%씩 분배
- 프라이빗 세일: TGE 후 5개월간 락업, 이후 매 분기마다 16.7%씩 분배
- 팀: TGE 후 7개월간 락업, 이후 6개월마다 16.7%씩 분배
- 어드바이저: TGE 후 12개월간 락업, 이후 매 분기마다 20%씩 분배
- 에코시스템: TGE 후 3개월간 락업, 이후 매월 약 14.3%씩 분배
- 커뮤니티 성장: TGE 시점에서 50% 언락, 1개월 이후 매월 약 4.5%씩 분배
- 커뮤니티 클레임: TGE 시점에서 100% 즉시 언락
토큰 발행 (Emission) 구조
$LUME의 발행 구조는 고정된 인플레이션 방식이 아니라 목표 스테이킹 비율(67%)을 기준으로 한 동적 인플레이션 조정 메커니즘을 따른다. 인플레이션율은 최소 5%에서 최대 20% 사이에서 자동 조정되며, 스테이킹 참여율이 67%보다 낮으면 인플레이션을 높여 스테이킹 보상을 강화하고, 반대로 스테이킹이 과도할 경우 인플레이션을 줄여 토큰 희석을 억제한다. 이 방식은 네트워크 보안성과 토큰 유동성 사이의 균형을 유지하면서, 장기적으로 안정적이고 지속 가능한 토큰 경제를 뒷받침한다.
$LUME에는 소각 메커니즘도 내장되어 있다. Lumera에서 발생하는 트랜잭션 수수료의 20%는 영구 소각되고, 나머지 80%가 Validator들에게 분배된다. 즉, 네트워크 사용량이 많아질수록 유통량이 줄어드는 구조다. SuperNode가 수행하는 서비스 호출(Cascade 저장, Sense 검증, Inference 연산 등)에서 발생하는 PoSe 수수료는 100% SuperNode 운영자에게 귀속되지만, 이때 결제는 반드시 LUME → AI Credits 전환 과정을 거치며, 이 과정에서 일부가 소각된다. 따라서 단순 트랜잭션뿐 아니라 서비스 사용량 자체가 토큰 희소성 강화로 이어진다.
Lumera 메인넷은 9월 11일 출시되었지만, 아직 토큰이 상장된 거래소는 없는 상황이기 때문에 거래가 이루어지지 않고 있으며 가격 형성이 이루어지지 않은 상황이다.
5-2. LUME 토큰 유틸리티
LUME는 단순 스테이킹 토큰이 아니라, 합의 보안(Validator), 서비스 실행(SuperNode), 툴 마켓플레이스 운영(MCP), 거버넌스를 모두 관통하는 다목적 토큰이다.
LUME의 활용은 크게 세 가지 주체를 중심으로 이뤄진다.
- Validator: LUME를 스테이킹해 PoS 합의에 참여하고, 블록 검증을 통해 보상을 획득한다.
- SuperNode: Cascade·Sense·Inference 모듈을 실행하며, 사용자 요청을 처리하고 PoSe 보상을 얻는다.
- User: 데이터를 저장(cascade/upload), 콘텐츠를 검증(sense/analyze), AI 모델을 실행(inference/request)할 때 LUME를 Lumera AI Credits(LAC)으로 전환해 결제한다. 이 과정에서 일부 토큰은 소각되어 유통량이 줄고 희소성이 강화된다.
모든 서비스 호출은 곧 LUME 수요로 이어진다. 저장(Store), 검증(Verify), 연산(Inference) 요청은 모두 LUME → AI Credits → Burn의 경로를 따르며, 이때 일부가 영구적으로 소각된다. Lumera의 토큰 경제는 단순 스테이킹 보상에 의존하지 않고, 실제 서비스 사용량이 토큰 가치와 직결되는 구조적 플라이휠을 형성한다.
또한 Lumera MCP 마켓플레이스에서는 툴 퍼블리셔가 일정량의 LUME를 예치해야 한다. SLA을 충족하지 못할 경우 예치 토큰은 슬래싱되며, 이를 통해 서비스 품질을 경제적으로 담보한다. 이 구조는 순수 스테이킹 기반 체인보다 보상 체계가 지속가능하고, 네트워크 신뢰성 또한 강화된다.
LUME는 거버넌스 토큰으로서도 기능한다. 토큰 홀더는 인플레이션율, 수수료, 에코시스템 펀드 집행 등 핵심 파라미터를 온체인 투표로 결정한다. 제안은 일정 수량의 LUME 예치가 필요하며, 부적절한 제안은 예치 소각으로 이어져 스팸을 방지한다. Delegator는 Validator에게 투표권을 위임하거나 직접 행사할 수 있어 참여 유연성이 높다. 이를 통해 Lumera는 단순한 보상 체계를 넘어, 토큰 보유자가 네트워크 방향과 MCP 운영까지 함께 조율하는 탈중앙 거버넌스를 구현한다.
6. 마무리: 이제 증명이 필요하다
AI는 이제 웹2를 넘어 웹3까지 전 영역에서 핵심 성장 동력으로 자리잡고 있다. 글로벌 AI 시장은 앞으로 폭발적인 성장을 앞두고 있지만, 웹3 AI 시장은 아직 초기 단계이며 규모도 상대적으로 작다. 그럼에도 불구하고 최근 다양한 AI 프로젝트들이 빠르게 등장하면서 경쟁 구도가 형성되고 있고, 이 과정에서 신뢰성 있는 인프라와 표준화된 실행 환경의 필요성이 점점 더 커지고 있다. 이러한 맥락에서 Lumera는 웹3 AI의 토대를 마련할 수 있는 유리한 포지셔닝을 갖추고 있다.
Lumera는 AI 실행·검증·저장·결제까지를 하나의 온체인 흐름으로 통합해 웹3 AI의 표준 인프라를 지향한다. Pastel의 기술 자산(Cascade·Sense)을 PoS 기반으로 재설계하고, SuperNode·PoSe, Action&Agent, MCP 스위칭 패브릭을 결합함으로써 단일 기능 체인을 넘어 웹3 AI를 위한 풀스택 레이어로 자리매김하고자 한다.
Lumera의 핵심 기술들은 이미 실사용 환경에서 검증된 바 있으며, AI 표준 인프라로 자리잡고자 하는 명확한 비전을 갖고 있다. 그러나 이를 현실화하기 위해서는 실제 사업적 성과를 증명해야 하는 과제가 남아 있다. 단기적으로는 곧 공개될 Lumera Hub 베타를 통해 얼마나 많은 사용자의 관심을 끌고 사용성을 입증하는지가 중요하며, 동시에 킬러 애플리케이션 등의 대표적인 서비스 사례 출시가 핵심 관건이다. 중장기적으로는 MCP를 기반으로 얼마나 많은 툴을 온보딩하고, 다양한 프로젝트가 Lumera 인프라를 활용해 빌딩해 나가는지가 성패를 가르는 지점이 될 것이다. 이러한 실행이 뒷받침될 때 Lumera는 “온체인과 네이티브하게 통합된 AI 백엔드”로서, 웹3 AI 생태계의 허브이자 표준 인프라로 자리잡을 수 있을 것이다.