스웨덴 라플란드 룰레아에 위치한 페이스북 데이터 센터 서버실       [AFP·GETTY IMAGES]
스웨덴 라플란드 룰레아에 위치한 페이스북 데이터 센터 서버실 [AFP·GETTY IMAGES]

블록체인-문제의 시작과 해결의 약속

필자가 처음 블록체인 기술에 관심을 가지게 된 것은, 사람에 대한 신뢰 없이도 작동하는 시스템을 만들 수 있다는 가능성 때문이었다. 탈중앙화된 네트워크, 투명한 규칙, 암호학적 보안을 기반으로 한 블록체인은 중앙 통제와 중개자를 없앨 수 있는 획기적인 기술로 여겨졌다.

실제로 프로토콜 수준에서 블록체인은 이러한 약속을 일정 부분 실현해냈다. 거래가 어떻게 검증되고 저장되는지에 대한 기술적 기반은 견고히 구축되어 있는 편이다.

그러나 시간이 흐르면서 문제의 본질은 기술 자체가 아니라 그것을 사용하는 방식과 행위자에 있다는 사실이 점점 분명해졌다. 기술의 허점을 악용하는 사례는 끊이지 않는다. 거의 매주 디파이(DeFi) 프로젝트에서 자금이 유출되거나, 블록체인 브리지가 해킹당하거나, NFT 커뮤니티가 가짜 공지에 속아 피해를 입는 사례들이 쏟아져 나온다. 이러한 사건들은 블록체인 기술의 결함이라기보다, 사회공학적 기법, 교묘한 조작, 혹은 미세한 코드상의 실수가 원인인 경우가 많다. 바로 이러한 부분에서 인공지능 (AI)이 문제 해결에 도움을 줄 수 있다.

지금, AI가 중요한 이유

물론 AI가 마법처럼 블록체인의 모든 문제를 해결해줄 것이라 믿진 않는다. 하지만 이제 AI는 단순히 ‘있으면 좋은’ 수준을 넘어선 지 오래다. 공격자들은 점점 더 속도가 빨라지고, 똑똑해지며, 국경을 넘나들며 활발하게 활동한다. 이처럼 변화가 끊이지 않는 환경 속에서 우리는 그에 맞설 방어체계를 갖출 필요가 있다.

방어체계를 갖추기 위해선 정적인 규칙만 따르는 시스템이 아니라, 학습하고, 적응하며, 위협이 형성되는 초기 단계부터 감지할 수 있는 체계가 필요하다. 바로 이 맥락에서 AI의 역할이 중요해진다. 단순히 복잡성을 더하자는 것이 아니라, 이상 징후를 포착하고, 숨겨진 패턴을 이해하며, 너무 늦기 전에 대응할 수 있는 역량을 갖추자는 의미다.

늦기 전에 이상 징후 포착하기

AI가 블록체인에서 할 수 있는 가장 유용한 역할은 이상 징후를 감지하는 일이다.

우리가 디파이 플랫폼을 운영한다고 가정해 보자. 대부분의 사용자는 토큰을 교환하고, 유동성을 공급하며, 거버넌스 투표에 참여하는 등 예측 가능한 방식으로 행동한다. 그런데 어느 날, 한 지갑이 갑자기 잘 알려지지 않은 수십 개의 계약과 상호작용을 시작하고, 소규모 유동성 풀에서 자금을 빼낸 뒤, 토네이도 캐시(Tornado Cash)와 같은 프라이버시 믹서를 통해 자금을 이체하기 시작하면 어떻게 될까?

엄밀히 말하면 이 행위가 규칙 위반까지는 아닐 수 있다. 하지만 무언가 이상한 것은 확실하다. 그리고 실제로, ‘이상함’은 종종 사기나 해킹의 첫 번째 신호가 된다. 기존의 시스템은 알려진 위협 패턴과 일치하지 않기 때문에 이를 감지하지 못할 수 있다. 반면, 정상적인 사용자 행동을 학습한 AI 시스템이라면 이와 같은 이상 징후를 즉시 포착할 수 있게 된다.

이렇듯 AI는 (특히 공격자가 지속적으로 전술을 바꾸는 환경에서 더욱 효과적으로) 사람이 일일이 규칙으로 정의하기 어려운 패턴 인식을 가능하게 한다. AI는 정상적인 데이터를 바탕으로 계속 학습하면서, 점점 더 정교하게 이상 행동을 구별할 수 있는 역량을 갖추는 것이다.

스마트 계약을 더 스마트하고 안전하게

AI가 또다른 가능성을 보여주는 영역은 스마트 계약의 검토 및 보안 측면이다. 스마트 계약은 대부분의 블록체인 애플리케이션을 구동하는 코드 조각이며, 공격자들이 자주 노리는 지점이기도 하다. 아주 작은 버그 하나를 놓쳐도 수백만 달러의 손실로 이어진다.

현재 우리는 보안을 위해 감사, 체크리스트, 형식적 검토 등에 크게 의존하고 있다. 이러한 절차는 필수적이지만, 그 확장성에는 한계가 있다. 매달 수천 개의 새로운 스마트 계약이 출시되는데, 사람이 직접 하나하나 확인하는 것은 현실적으로 어렵기 때문이다. 이러한 상황에서 AI는 조기 경보 시스템의 역할을 할 수 있다. 과거의 해킹 사례에서 나타난 패턴을 학습한 AI는 계약 코드를 빠르게 스캔하고, 위험 요소를 선별해낼 수 있기 때문이다. 물론 AI가 가까운 시일 내에 전문가 감사를 완전히 대체할 것이라 기대하진 않는다. 하지만 감사자가 우선 주목해야 할 지점을 미리 알려줌으로써, 전문가의 업무를 한층 수월하게 만들어줄 수는 있다.

사전에 문제를 포착하는 기술

블록체인에서 발생하는 가장 피해규모가 큰 사기행위는 갑작스레 일어나지 않는다. 며칠, 심지어 몇 주에 걸쳐 서서히 조짐을 보이며 쌓여간다. 사전 경고 신호는 분명 존재하며, 이를 어디서 탐지할지 아는 것이 중요하다.

따라서 AI의 가장 큰 가능성은 여러 곳에 흩어져 있는 단서들을 종합해내는 기능에 있다. 단지 블록체인 내부의 데이터뿐만 아니라, 포럼, 개발자 활동, 소셜미디어, 채팅 그룹 등 외부 정보까지 포괄해서 말이다. 예컨대 한 개발자가 토큰 출시 직전에 핵심 코드를 갑자기 변경하거나, 수많은 신규 지갑이 비정상적인 방식으로 에어드랍 계약을 실행하는 상황을 감지한다고 가정해보자. 각각의 정보는 단독으로 보면 큰 의미가 없어 보일 수 있다. 하지만 모두 연결하면 하나의 ‘이야기’가 만들어진다. AI가 이런 여러 지점들을 연결할 수 있다면, 피해가 발생한 후에 대응하는 수준에서 벗어나 사전 예측과 예방이 가능한 체계로 전환할 수 있다. AI가 진정한 힘을 발휘하는 지점이 바로 여기 존재하는 것이다.

이해하기 쉬운 설명이 중요한 이유

기억해야 할 점은, 블록체인 세계에서 신뢰는 매우 쉽게 깨진다는 것이다. 만약 AI 시스템이 어떤 프로젝트가 위험하다고 판단하거나 스마트 계약에 악의적 요소가 있다고 경고한다면, 사람들은 자연히 그 이유를 묻게 된다. 그러나 이후 주어진 답변을 납득하기 어렵다면, 시스템이 아무리 정확하더라도 받아들이지 않을 것이다.

그렇기 때문에 ‘설명 가능성(explainability)’은 선택이 아닌 필수다. AI의 판단 근거를 시각화하거나, 결론에 이르게 된 과정을 간단히 요약해주는 도구들은 AI의 신뢰도를 좌우하는 핵심 요소가 된다. 사용자들은 ‘왜 이 항목이 경고 대상이 되었는가?’라는 질문에 대해 일반인도 쉽게 이해할 수 있는 명확한 답을 들을 수 있어야 한다.

설명 가능성이 중요하다는 것은, 결국 시스템 안에 계속 ‘사람’이 포함되어야 한다는 의미이기도 하다. 필자는 인간의 판단과 기계 학습의 결합 방식을 신뢰한다. AI는 우선순위를 정하고, 이상 징후를 강조하며, 조치를 제안하는 데 도움을 줄 수 있지만, 인간을 완전히 대체해서는 안 된다. 궁극적인 목표는 보안 분석가와 연구자들이 더 빠르고, 더 똑똑하며, 더 효과적으로 일할 수 있도록 지원하는 데 있다.

AI 자체의 탈중앙화, 가능할까?

최근 들어 AI와 관련해 충분히 주목받고 있지 못하는 한 가지 이슈가 있다. 대부분의 AI는 여전히 상당히 중앙 집중적인 구조를 갖고 있다는 점이다. 대형 기업이 소유한 클라우드 서버에서 모델이 실행되고, 이들이 사용하는 데이터 역시 폐쇄적인 경우가 많다. 이는 웹3(Web3)의 핵심 가치들과는 다소 상충되는 측면이 있다.

그렇다면 ‘탈중앙화된 AI’는 어떤 모습일까? 특정 단일 주체가 통제하지 않으며, 오프체인에서 인사이트를 생성한 뒤 이를 투명하고 신뢰 가능한 방식으로 블록체인 프로토콜에 반영하는 구조를 상상해볼 수 있다.

아직 완전히 실현된 것은 아니지만, 초기 단계의 진전은 보인다. 아이겐레이어 (EigenLayer) 같은 프로젝트나 제로지식 머신러닝 (zero-knowledge machine learning, zkML)을 활용한 새로운 시도들은, 탈중앙화된 환경에 보다 잘 어울리는 AI 도구가 어떻게 구현될 수 있는지를 보여주고 있다. 예를 들면, 중앙화된 백엔드 없이도 AI 기반 인사이트에 따라 스스로 작동을 멈추거나, 수수료를 조정하거나, 거버넌스 투표를 촉발할 수 있는 프로토콜이 작동하는 미래도 충분히 실현 가능한 시나리오다.

온체인에 탑재된 AI, 현실이 되고 있다

온체인 AI는 아직 다소 미래지향적으로 느껴질 수 있지만, 날이 갈수록 현실로 다가오고 있다. 필자가 말하는 것은 단순히 오프체인에서 실행되는 AI 모델이 아니라, 그 결과가 온체인 상에서 검증되거나, 경우에 따라 온체인에 ‘존재’하는 형태의 AI다.

물론 이더리움과 같은 블록체인 상에서 대규모 AI 모델을 직접 학습시키는 것은 현실적으로 어렵다. 하지만 의사결정 트리 (decision trees)나 단순한 분류기처럼 비교적 소규모 모델이라면, 적절히 활용할 경우 충분히 성과를 낼 수 있다. 특히 영지식 증명 기술이 발전하면서, 연산이 오프체인에서 이루어졌더라도 해당 AI 모델이 타당한 결론에 도달했음을 온체인 상에서 증명하는 것이 점점 가능해지고 있다.

이러한 기술은 여러 분야에서 흥미로운 가능성을 열어준다. 예컨대, 에어드랍 시 봇 계정을 탐지하거나, 대출 프로토콜이 실시간으로 리스크를 평가할 수 있도록 하며, 탈중앙 자율조직(DAO)이 커뮤니티의 행동 데이터를 기반으로 더 스마트한 거버넌스 결정을 내리는 데 도움을 줄 수 있다.

마무리하는 글

AI가 블록체인 보안 문제를 완벽히 ‘해결’해줄 것이라고는 생각하지 않는다. 하지만 지금 우리가 직면한 현실 (위협이 빠르게 진화하고, 공격자는 점점 더 창의적이며, 고정된 방어 체계만으로는 대응이 어려운 환경)에 보다 효과적으로 대응할 수 있는 수단을 제공한다고 믿는다.

우리는 학습하고 성장하며, 대형 문제로 번지기 전에 미묘한 이상 징후를 감지할 수 있는 시스템이 필요하다. AI는 그런 능력을 제공할 수 있다. 하지만 그것이 제대로 작동하려면, 어떻게 설계하는지가 관건이다. 투명성과 책임을 기반으로, 가능하다면 이 생태계가 지향해온 개방성의 가치와도 조화를 이루는 방식으로 구축되어야 한다.

블록체인 보안 문제의 다음 돌파구는 새로운 합의 알고리즘이나 암호화 방식에서 나오는 것이 아니라, 바로 ‘지능’에서 나올 것이다. 여기서 지능이란 단순히 ‘인공지능’이라는 의미가 아니라, 공유되고, 신뢰받으며, 우리가 일상적으로 사용하는 시스템 속에 자연스럽게 통합된 지능을 뜻한다.

그 과정을 신중하게 밟아 나간다면, 우리는 보다 안전하고 스마트한 블록체인 미래를 맞이하게 될 것이다.

Joel Kjellgren, Data Centre Manager, walks in one of the server rooms at the new Facebook Data Centre, its first outside the US in Lulea, in Swedish Lapland JONATHAN NACKSTRAND/AFP/GETTY IMAGES
Joel Kjellgren, Data Centre Manager, walks in one of the server rooms at the new Facebook Data Centre, its first outside the US in Lulea, in Swedish Lapland JONATHAN NACKSTRAND/AFP/GETTY IMAGES

How I See AI Quietly Making Blockchain Safer

The Promise and the Problem

When I first got into blockchain, I was excited by the idea that we could build systems that didn’t rely on trust in people. With decentralized networks, transparent rules, and cryptographic security, blockchain felt like a breakthrough, one that could finally eliminate the need for gatekeepers and centralized control.

And to be honest, at the protocol level, blockchain has delivered on that promise. The foundations, like how transactions are verified and stored, are solid. But over time, I realized that the real problems often aren’t in the underlying code. They’re in how people use the system and how others find ways to abuse it. You don’t need to look far to see it. Every week, it feels like there’s a new story: a DeFi project gets drained, a bridge is hacked, or an NFT community gets tricked by a fake announcement. These aren’t failures of the blockchain itself. They’re the result of clever manipulation, social engineering, or subtle coding mistakes. And that’s exactly where I believe AI can help.

Why AI Matters Now

I don’t see AI as some magical fix for blockchain’s problems. But I do think we’ve reached a point where it’s no longer just “nice to have.” In an environment that’s constantly evolving and where attackers are quick, smart, and global, we need defenses that can keep up. That means systems that don’t just follow static rules but actually learn, adapt, and detect trouble as it’s forming.

That’s what draws me to AI in this context. It’s not about adding more complexity. It’s about giving ourselves the ability to spot the unusual, understand the hidden, and react before it’s too late.

Catching the Weird Before It Becomes Dangerous

One of the most valuable things AI can do in blockchain is detect behavior that’s out of the ordinary. Let me explain what I mean.

Imagine you run a DeFi platform. Most users behave in predictable ways: they swap tokens, provide liquidity, maybe participate in governance votes. But what if one day, a wallet suddenly starts interacting with dozens of obscure contracts, drains small liquidity pools, and sends funds through a privacy mixer like Tornado Cash?

On its own, that might not break any rules. But it’s odd and often, odd is the first sign of a scam or exploit. Traditional systems might miss that because it doesn’t match any known threat. But an AI system trained to understand normal behavior can flag it right away. That’s the kind of pattern recognition that’s hard to build manually, especially when attackers are constantly changing tactics. With AI, the system learns from what’s typical and gets better over time at noticing when something doesn’t belong.

Making Smart Contracts Smarter (and Safer)

Another place I see real promise is in how we review and secure smart contracts. These are the bits of code that power most blockchain apps, and they’re often where attackers strike. A single overlooked bug can lead to millions in losses. Today, we rely heavily on audits, checklists, and formal reviews. Those are essential, but they don’t scale well. Thousands of new contracts are launched every month, and it’s just not realistic to manually check them all in depth.

AI can help here by acting like an early warning system. It can quickly scan through contract code and highlight parts that look risky, based on patterns it has seen in past exploits. I don’t expect AI to replace expert auditors anytime soon-but it can make their jobs a lot easier by pointing out where to look first.

Spotting Trouble Before It Starts

Some of the most damaging frauds in blockchain don’t come out of nowhere. They build up slowly, over days or even weeks. The warning signs are there and you just need to know where to look.

That’s why I think one of AI’s biggest opportunities is in pulling together clues from all over the place. Not just from the blockchain itself, but from forums, developer activity, social media, and chat groups. Imagine seeing that a developer suddenly changes key code right before a token launch, or that a surge of new wallets starts hitting airdrop contracts in an unusual way.

Individually, these might not mean much. But together, they can tell a story. If AI can connect those dots, we can shift from reacting after the damage is done to actually predicting and preventing attacks. That, to me, is where things get really powerful.

Why Explanations Matter

Here’s the catch: in the blockchain world, trust is fragile. If an AI system says a project is risky or a contract looks malicious, people are going to ask why. And if they don’t understand the answer, they won’t listen; no matter how accurate the system is.

That’s why I believe explainability isn’t optional. It’s essential. The tools we use to understand AI decisions, like visualizations of what mattered most, or simple summaries of how a conclusion was reached, make all the difference. People need to be able to ask, “Why did this get flagged?” and get a clear, human answer.

That also means keeping people in the loop. I’m a big believer in combining human judgment with machine learning. AI should be there to highlight, prioritize, and suggest but not to replace people entirely. The goal is to make analysts and security researchers faster, smarter, and more effective.

Can AI Itself Be Decentralized?

Lately, I’ve been thinking about something that doesn’t get enough attention: most AI today is still very centralized. The models run on cloud servers owned by big companies. The data they use is often closed off. And that’s a bit at odds with the values of Web3.

So what would it look like to have decentralized AI, namely models that aren’t controlled by any one party, that generate insights off-chain, and then feed them into blockchain protocols in a transparent, trustworthy way?

We’re not fully there yet, but there are early signs of progress. Projects like EigenLayer and new approaches to zero-knowledge machine learning (zkML) are starting to show how we might build AI tools that fit better with the decentralized world we want. Imagine a protocol that can pause itself, change fees, or trigger a governance vote based on AI-derived insights without relying on a centralized backend.

AI That Lives On-Chain? It’s Starting to Happen

This part still feels futuristic, but it’s becoming more real by the day. I’m talking about AI models that don’t just run off-chain, but actually live on-chain or at least have their results verified there.

We’re not going to train massive models directly inside Ethereum or anything like that. But even small models, like decision trees or simple classifiers, can make a meaningful impact if used wisely. And with techniques like zero-knowledge proofs, it’s becoming possible to prove that an AI model reached a decision correctly, even if the computation itself happened off-chain.

That opens up a lot of exciting possibilities: detecting bots during airdrops, giving lending protocols a way to assess risk in real time, or helping DAOs make smarter governance decisions based on community behavior.

Final Thoughts

I don’t think AI will “fix” blockchain security. But I do believe it gives us a better way to meet the reality we’re living in-one where threats evolve quickly, attackers are creative, and static defenses just can’t keep up.

We need systems that learn, that grow, that notice subtle patterns before they turn into big problems. AI gives us that capability. But only if we build it right: with transparency, with accountability, and ideally, in a way that aligns with the open values this space was built on.

I don’t believe the next breakthrough in blockchain security will come from a new consensus algorithm or encryption method. I think it will come from intelligence, not just AI, but intelligence that’s shared, trusted, and woven into the systems we use every day.

And if we do it thoughtfully, I believe we’re headed for a safer, smarter blockchain future.


bonsang@heraldcorp.com