작년 25년 11월, 미국 애틀랜타에서 열린 **KubeCon + CloudNativeCon North America**의 패널 토론와 관련 기사를 공유드립니다.
Cloud Native(클라우드 네이티브) 시대에서 AI Native(AI 네이티브) 시대로의 전환이 기술과 인프라에 어떤 의미를 갖는지를 논의한 내용입니다.
아래의 내용은 참석한 주요 패널들(TNS Founder and Publisher인 Alex Williams, The Cloud Native Computing Foundation의 new executive directorJonathan Bryce, Fermyon Technologies Engineer인 Kate Goldenring, Dynatrace의Sean O’Dell 등 여러 전문가 패널들간의 토론한 정보를 정리한 내용입니다.
➊ AI의 핵심은 챗봇이 아닌 '추론(Inference)'이다. from Jonathan Bryce(CNCF)
- 미래의 AI 네이티브 기업은 단순히 챗봇을 만드는 회사가 아닐 것입니다.
- 대규모 데이터셋을 지능으로 변환한 뒤, 이를 실제로 사용하여 예측하고 질문에 답하는 추론(Inference) 계층이 필수적입니다.
- 현재 업계가 챗봇과 에이전트에 너무 집중한 나머지, 정작 중요한 인프라의 기초인 추론 단계를 소홀히 하고 있다는 점을 지적했습니다.
➋ 웹어셈블리(WebAssembly): 빠르고 안전한 AI 배포의 열쇠 from Kate Goldenring(Fermyon Technologies)
- AI 모델을 엣지(Edge) 환경에서 빠르게 구동하고 개인화된 서비스를 제공하기 위해 **웹어셈블리(Wasm)**가 중요한 역할을 하고 있습니다.
- WASM을 사용하면 AI 모델을 컴포넌트와 함께 패키징하여 GPU가 있는 하드웨어에 직접 배포할 수 있으며, 샌드박스 환경을 제공하여 보안성까지 확보할 수 있습니다.
➌ 데이터 쓰나미와 관측성(Observability) from Sean O’Dell(Dynatrace)
- AI가 생성하고 사용하는 막대한 양의 데이터는 기존의 모니터링 방식을 위협하는 '데이터 쓰나미’를 일으키고 있습니다.
- 지난 수년간 축적해 온 예측 데이터 위에 거대언어모델(LLM)과 인텔리전스를 결합하여, 이 복잡한 데이터 흐름을 효과적으로 관측하고 관리하는 것이 중요해졌습니다.
➍ 전력 소비와 인프라 효율성: 현실적인 과제 from 패널 공통의견
- AI 네이티브 시대로 넘어가면서 가장 큰 물리적 장벽은 바로 **‘전력(Power)’**입니다.
- 데이터센터를 빠르게 짓고 있지만, 이를 가동할 전력이 부족한 상황입니다. 따라서 인프라를 얼마나 효율적으로 관리하느냐가 향후 몇 년간 가장 중요한 도전 과제가 될 것입니다.
**
결론은 ** 우리는 지금 클라우드 위에서 애플리케이션을 돌리는 시대를 지나, AI 워크로드를 효율적이고 안전하게 구동해야 하는 시대로 진입했습니다. 화려한 AI 서비스 이면에 있는 추론 인프라, 보안 기술, 그리고 에너지 효율성에 대한 고민이 필요한 시점입니다.
[기사 출처] https://thenewstack.io/from-cloud-native-to-ai-native-where-are-we-going/
[오디오 출처] https://thenewstack.simplecast.com/episodes/from-cloud-native-to-ai-native-where-are-we-going-RQEDbrdF
| This is a space where knowledge is not merely consumed, but respected, sovereign, and connected—shared together with cloud industry professionals (Bros).|
| 지식이 소비되지 않고 존중·주권보장·연결되는 공간으로 클라우드 현업 전문가(Bro)와 함께 공유하고 있습니다. |
