<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Tech on 내가 먼저 엿보고 온 시간들</title><link>https://7hehans.github.io/tech/</link><description>Recent content in Tech on 내가 먼저 엿보고 온 시간들</description><generator>Hugo -- 0.146.0</generator><language>ko-kr</language><lastBuildDate>Thu, 11 Sep 2025 00:00:00 +0000</lastBuildDate><atom:link href="https://7hehans.github.io/tech/index.xml" rel="self" type="application/rss+xml"/><item><title>지능의 진화: AGI가 그리는 미래</title><link>https://7hehans.github.io/tech/agi/expected-agi/</link><pubDate>Thu, 11 Sep 2025 00:00:00 +0000</pubDate><guid>https://7hehans.github.io/tech/agi/expected-agi/</guid><description>&lt;h2 id="단일-task-중심에서-범용성으로-맥락을-이해하는-ai">단일 Task 중심에서 범용성으로: 맥락을 이해하는 AI&lt;/h2>
&lt;p>현재의 AI는 좁은 AI(Narrow AI), 즉 특정 작업을 수행하는 데 특화된 모델입니다.
예를 들어, 텍스트 생성 AI는 언어적 패턴을 학습하여 인간처럼 글을 쓰지만, 그 글의 의미나 함의를 깊이 이해하지는 못합니다.
이미지 인식 AI는 고양이와 개를 구분할 수 있지만, 그 사진이 왜 찍혔는지, 그 상황이 어떤 맥락인지 파악하지는 못합니다.&lt;/p>
&lt;p>&lt;strong>AGI(범용 인공지능)&lt;/strong> 로의 진화는 단순히 여러 개의 좁은 AI를 합치는 것이 아닙니다. 핵심은 &lt;strong>&amp;lsquo;맥락 이해(Contextual Understanding)&amp;rsquo;&lt;/strong> 와 &amp;lsquo;추론(Reasoning)&amp;rsquo; 능력의 획득입니다.
최근 주목받는 &lt;strong>&amp;lsquo;멀티모달(Multimodal) AI&amp;rsquo;&lt;/strong> 가 바로 이 방향의 첫걸음입니다. 텍스트, 이미지, 음성 등 여러 형태의 데이터를 동시에 처리하며 종합적인 판단을 내리는 기술이죠.
예를 들어, &amp;ldquo;이 사진을 보고 재미있는 이야기를 만들어줘&amp;quot;라는 명령에 대해 사진의 시각적 요소뿐만 아니라, 그 사진이 담고 있는 분위기와 의미까지 종합적으로 추론하여 창의적인 결과물을 내놓을 수 있게 됩니다.
이는 AGI가 다양한 상황에 적응하며 스스로 문제를 해결하는 능력을 갖추게 됨을 의미합니다.&lt;/p></description></item><item><title>Gemini On-Device, RFM의 경량화는 어디까지 왔는가?</title><link>https://7hehans.github.io/tech/rfm/gemini-ondevice/</link><pubDate>Wed, 02 Jul 2025 00:00:00 +0000</pubDate><guid>https://7hehans.github.io/tech/rfm/gemini-ondevice/</guid><description>&lt;blockquote>
&lt;p>로봇에게 두뇌를 심는다는 것은 이제 AI 서버를 연결하는 일이 아니라,&lt;br>
그 자체로 ‘두뇌’를 &lt;strong>로컬에 직접 넣는 일&lt;/strong>이 되고 있다.&lt;/p>&lt;/blockquote>
&lt;hr>
&lt;h2 id="로봇의-두뇌-어디까지-작아질-수-있을까">로봇의 두뇌, 어디까지 작아질 수 있을까?&lt;/h2>
&lt;p>RFM(Robot Foundation Model)의 핵심은 다양한 센서 입력을 통합하고,&lt;br>
상황에 맞는 행동을 생성해내는 범용 추론 능력이다.&lt;br>
하지만 지금까지의 대부분 RFM은 클라우드 연산에 의존하고 있었다.&lt;/p>
&lt;ul>
&lt;li>연산 성능과 메모리 요구가 높고&lt;/li>
&lt;li>지연 시간, 연결 문제도 존재했다&lt;/li>
&lt;/ul>
&lt;hr>
&lt;h2 id="deepmind의-해답-gemini-robotics-on-device">DeepMind의 해답: &lt;strong>Gemini Robotics On-Device&lt;/strong>&lt;/h2>
&lt;p>2025년 6월, Google DeepMind는&lt;br>
[RoboCat, RT-X 등의 연장선]에서 새로운 시도를 공개했다:&lt;/p></description></item><item><title>Robot Foundation Model, 로봇의 GPT가 온다</title><link>https://7hehans.github.io/tech/rfm/rfm-intro/</link><pubDate>Mon, 30 Jun 2025 00:00:00 +0000</pubDate><guid>https://7hehans.github.io/tech/rfm/rfm-intro/</guid><description>&lt;blockquote>
&lt;p>내가 먼저 엿보고 온 시간들. 그 시작점은 RFM이었다.&lt;/p>&lt;/blockquote>
&lt;hr>
&lt;h2 id="rfm이란">RFM이란?&lt;/h2>
&lt;p>&lt;strong>RFM(Robot Foundation Model)&lt;/strong> 은 텍스트, 비전, 행동(action) 등 다양한 멀티모달 입력을 통합하여&lt;br>
로봇이 상황을 이해하고, 판단하고, 스스로 움직일 수 있게 해주는 범용 인공지능 모델이다.&lt;/p>
&lt;p>GPT가 언어의 뇌라면, RFM은 로봇의 &lt;strong>시각·행동까지 포함된 진짜 두뇌&lt;/strong>라고 할 수 있다.&lt;/p>
&lt;hr>
&lt;h2 id="왜-rfm이-중요한가">왜 RFM이 중요한가?&lt;/h2>
&lt;p>기존 로봇은 대부분 특정 작업만 하도록 프로그래밍되었다.&lt;br>
하지만 RFM은 다음과 같은 특징을 갖는다:&lt;/p>
&lt;ul>
&lt;li>💡 다양한 상황에 적응할 수 있는 &lt;strong>범용성&lt;/strong>&lt;/li>
&lt;li>🧠 사전 학습을 통해 빠른 행동 실행이 가능한 &lt;strong>추론 기반 구조&lt;/strong>&lt;/li>
&lt;li>🔄 실제 환경에서의 fine-tuning 없이도 행동 가능&lt;/li>
&lt;/ul>
&lt;blockquote>
&lt;p>기존 방식: Rule-based task-specific →&lt;br>
RFM 기반: One-model for many-tasks&lt;/p></description></item></channel></rss>