<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>내가 먼저 엿보고 온 시간들</title><link>https://7hehans.github.io/</link><description>Recent content on 내가 먼저 엿보고 온 시간들</description><generator>Hugo -- 0.146.0</generator><language>ko-kr</language><lastBuildDate>Mon, 22 Sep 2025 00:00:00 +0000</lastBuildDate><atom:link href="https://7hehans.github.io/index.xml" rel="self" type="application/rss+xml"/><item><title>성공 스토리의 함정과 전이의 어려움</title><link>https://7hehans.github.io/thought/success-story-transfer-trap/</link><pubDate>Mon, 22 Sep 2025 00:00:00 +0000</pubDate><guid>https://7hehans.github.io/thought/success-story-transfer-trap/</guid><description>&lt;p>사람마다 각자의 성공 스토리가 있다.
어떤 이는 사업에서 성과를 냈고, 또 어떤 이는 학업에서, 혹은 인간관계에서 뜻깊은 성취를 경험했을 것이다.
이러한 순간은 강렬한 기억으로 남고, 그 과정에서 발견한 방법이나 원리가 곧 자신만의 성공 공식으로 자리 잡는다.&lt;/p>
&lt;p>문제는 여기서 시작된다.
한 번의 성공은 단순한 선택이나 노력이 아니라, 수많은 변수와 우연이 맞물려 이루어진 결과일 수 있다.
그러나 우리는 흔히 성공의 원인을 정리하며 “내가 이렇게 해서 해냈다”라는 내러티브를 만든다.
이 과정에서 필연적으로 우연의 요소는 지워지고, 내 노력과 판단만이 강조된다.&lt;/p></description></item><item><title>지능의 진화: AGI가 그리는 미래</title><link>https://7hehans.github.io/tech/agi/expected-agi/</link><pubDate>Thu, 11 Sep 2025 00:00:00 +0000</pubDate><guid>https://7hehans.github.io/tech/agi/expected-agi/</guid><description>&lt;h2 id="단일-task-중심에서-범용성으로-맥락을-이해하는-ai">단일 Task 중심에서 범용성으로: 맥락을 이해하는 AI&lt;/h2>
&lt;p>현재의 AI는 좁은 AI(Narrow AI), 즉 특정 작업을 수행하는 데 특화된 모델입니다.
예를 들어, 텍스트 생성 AI는 언어적 패턴을 학습하여 인간처럼 글을 쓰지만, 그 글의 의미나 함의를 깊이 이해하지는 못합니다.
이미지 인식 AI는 고양이와 개를 구분할 수 있지만, 그 사진이 왜 찍혔는지, 그 상황이 어떤 맥락인지 파악하지는 못합니다.&lt;/p>
&lt;p>&lt;strong>AGI(범용 인공지능)&lt;/strong> 로의 진화는 단순히 여러 개의 좁은 AI를 합치는 것이 아닙니다. 핵심은 &lt;strong>&amp;lsquo;맥락 이해(Contextual Understanding)&amp;rsquo;&lt;/strong> 와 &amp;lsquo;추론(Reasoning)&amp;rsquo; 능력의 획득입니다.
최근 주목받는 &lt;strong>&amp;lsquo;멀티모달(Multimodal) AI&amp;rsquo;&lt;/strong> 가 바로 이 방향의 첫걸음입니다. 텍스트, 이미지, 음성 등 여러 형태의 데이터를 동시에 처리하며 종합적인 판단을 내리는 기술이죠.
예를 들어, &amp;ldquo;이 사진을 보고 재미있는 이야기를 만들어줘&amp;quot;라는 명령에 대해 사진의 시각적 요소뿐만 아니라, 그 사진이 담고 있는 분위기와 의미까지 종합적으로 추론하여 창의적인 결과물을 내놓을 수 있게 됩니다.
이는 AGI가 다양한 상황에 적응하며 스스로 문제를 해결하는 능력을 갖추게 됨을 의미합니다.&lt;/p></description></item><item><title>지혜 전이의 어려움</title><link>https://7hehans.github.io/thought/wisdom-transfer/</link><pubDate>Thu, 11 Sep 2025 00:00:00 +0000</pubDate><guid>https://7hehans.github.io/thought/wisdom-transfer/</guid><description>&lt;p>우리는 살아가며 수많은 경험을 통해 조금씩 성장하고 지혜를 쌓아갑니다.&lt;br>
그런데 이렇게 쌓인 지혜는 왜 타인에게 온전히 전달되지 않을까요? 부모가 자식에게, 스승이 제자에게 아무리 좋은 가르침을 주어도 그들이 직접 경험하지 않는 한 그것은 단순한 정보에 그치기 쉽습니다.
돈을 물려주거나 좋은 교육을 시켜주는 것도 마찬가지입니다. 지혜란 단순한 지식의 나열이 아니라, 삶의 과정 속에서 부딪히며 내면화된 결과물이기 때문입니다.&lt;/p>
&lt;hr>
&lt;h2 id="성취와-지혜의-간극">성취와 지혜의 간극&lt;/h2>
&lt;p>우리가 어떤 성취를 이뤘을 때, 그 결과물 자체만으로는 그 과정에서 얻은 지혜를 전할 수 없습니다.&lt;br>
요리 레시피만 보고 요리를 따라 한다고 해서, 오랜 시행착오 끝에 얻은 요리사의 깊은 맛을 바로 낼 수 없는 것과 같습니다.&lt;/p></description></item><item><title>Gemini On-Device, RFM의 경량화는 어디까지 왔는가?</title><link>https://7hehans.github.io/tech/rfm/gemini-ondevice/</link><pubDate>Wed, 02 Jul 2025 00:00:00 +0000</pubDate><guid>https://7hehans.github.io/tech/rfm/gemini-ondevice/</guid><description>&lt;blockquote>
&lt;p>로봇에게 두뇌를 심는다는 것은 이제 AI 서버를 연결하는 일이 아니라,&lt;br>
그 자체로 ‘두뇌’를 &lt;strong>로컬에 직접 넣는 일&lt;/strong>이 되고 있다.&lt;/p>&lt;/blockquote>
&lt;hr>
&lt;h2 id="로봇의-두뇌-어디까지-작아질-수-있을까">로봇의 두뇌, 어디까지 작아질 수 있을까?&lt;/h2>
&lt;p>RFM(Robot Foundation Model)의 핵심은 다양한 센서 입력을 통합하고,&lt;br>
상황에 맞는 행동을 생성해내는 범용 추론 능력이다.&lt;br>
하지만 지금까지의 대부분 RFM은 클라우드 연산에 의존하고 있었다.&lt;/p>
&lt;ul>
&lt;li>연산 성능과 메모리 요구가 높고&lt;/li>
&lt;li>지연 시간, 연결 문제도 존재했다&lt;/li>
&lt;/ul>
&lt;hr>
&lt;h2 id="deepmind의-해답-gemini-robotics-on-device">DeepMind의 해답: &lt;strong>Gemini Robotics On-Device&lt;/strong>&lt;/h2>
&lt;p>2025년 6월, Google DeepMind는&lt;br>
[RoboCat, RT-X 등의 연장선]에서 새로운 시도를 공개했다:&lt;/p></description></item><item><title>Robot Foundation Model, 로봇의 GPT가 온다</title><link>https://7hehans.github.io/tech/rfm/rfm-intro/</link><pubDate>Mon, 30 Jun 2025 00:00:00 +0000</pubDate><guid>https://7hehans.github.io/tech/rfm/rfm-intro/</guid><description>&lt;blockquote>
&lt;p>내가 먼저 엿보고 온 시간들. 그 시작점은 RFM이었다.&lt;/p>&lt;/blockquote>
&lt;hr>
&lt;h2 id="rfm이란">RFM이란?&lt;/h2>
&lt;p>&lt;strong>RFM(Robot Foundation Model)&lt;/strong> 은 텍스트, 비전, 행동(action) 등 다양한 멀티모달 입력을 통합하여&lt;br>
로봇이 상황을 이해하고, 판단하고, 스스로 움직일 수 있게 해주는 범용 인공지능 모델이다.&lt;/p>
&lt;p>GPT가 언어의 뇌라면, RFM은 로봇의 &lt;strong>시각·행동까지 포함된 진짜 두뇌&lt;/strong>라고 할 수 있다.&lt;/p>
&lt;hr>
&lt;h2 id="왜-rfm이-중요한가">왜 RFM이 중요한가?&lt;/h2>
&lt;p>기존 로봇은 대부분 특정 작업만 하도록 프로그래밍되었다.&lt;br>
하지만 RFM은 다음과 같은 특징을 갖는다:&lt;/p>
&lt;ul>
&lt;li>💡 다양한 상황에 적응할 수 있는 &lt;strong>범용성&lt;/strong>&lt;/li>
&lt;li>🧠 사전 학습을 통해 빠른 행동 실행이 가능한 &lt;strong>추론 기반 구조&lt;/strong>&lt;/li>
&lt;li>🔄 실제 환경에서의 fine-tuning 없이도 행동 가능&lt;/li>
&lt;/ul>
&lt;blockquote>
&lt;p>기존 방식: Rule-based task-specific →&lt;br>
RFM 기반: One-model for many-tasks&lt;/p></description></item></channel></rss>