<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>LLM Archives - Prsm Studio</title>
	<atom:link href="https://prsm-studio.com/tag/llm/feed/" rel="self" type="application/rss+xml" />
	<link>https://prsm-studio.com/tag/llm/</link>
	<description>automation · homeserver · side projects · game · gadgets · play</description>
	<lastBuildDate>Mon, 09 Mar 2026 07:57:07 +0000</lastBuildDate>
	<language>ko-KR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://prsm-studio.com/wp-content/uploads/2026/03/ic_launcher-playstore-150x150.png</url>
	<title>LLM Archives - Prsm Studio</title>
	<link>https://prsm-studio.com/tag/llm/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>[컴퓨터 놀이] 코알못도 했다! 나만의 홈서버 구축기 (4) — Ollama로 내 PC에서 AI 돌리기</title>
		<link>https://prsm-studio.com/code-illiterate-home-server-build-4-ollama-local-ai/</link>
					<comments>https://prsm-studio.com/code-illiterate-home-server-build-4-ollama-local-ai/#respond</comments>
		
		<dc:creator><![CDATA[Toaster]]></dc:creator>
		<pubDate>Mon, 09 Mar 2026 03:15:54 +0000</pubDate>
				<category><![CDATA[컴퓨터 놀이]]></category>
		<category><![CDATA[AI 서버]]></category>
		<category><![CDATA[LLM]]></category>
		<category><![CDATA[Ollama]]></category>
		<category><![CDATA[Open WebUI]]></category>
		<category><![CDATA[SER9 MAX]]></category>
		<category><![CDATA[로컬 AI]]></category>
		<category><![CDATA[미니PC]]></category>
		<category><![CDATA[홈서버]]></category>
		<guid isPermaLink="false">https://prsm-studio.com/code-illiterate-home-server-build-4-ollama-local-ai/</guid>

					<description><![CDATA[<p>홈서버에 Ollama와 Open WebUI를 올려 무료 로컬 AI를 돌려봤습니다. SER9 MAX 미니PC의 실측 성능, RAM별 모델 선택 가이드, 그리고 솔직한 결론까지.</p>
<p>The post <a href="https://prsm-studio.com/code-illiterate-home-server-build-4-ollama-local-ai/">[컴퓨터 놀이] 코알못도 했다! 나만의 홈서버 구축기 (4) — Ollama로 내 PC에서 AI 돌리기</a> appeared first on <a href="https://prsm-studio.com">Prsm Studio</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>내 서버에서 AI를 돌린다고?</h2>
<p>ChatGPT, Gemini, Claude… 다들 클라우드 AI를 쓰고 있죠. 근데 이런 생각 해본 적 없나요?</p>
<p><strong>&#8220;내 컴퓨터에서 AI를 돌리면 무료에, 내 데이터도 안 나가잖아?&#8221;</strong></p>
<p>맞습니다. 로컬 LLM(Large Language Model)을 돌리면 구독료도 없고, 대화 내용이 외부 서버로 전송되지 않아요. 프라이버시 완벽 보장이죠.</p>
<p>근데 현실은… 좀 다릅니다. <a href="/code-illiterate-home-server-build-1-ser9max-windows11-wsl2-docker/">1편에서 소개한 제 SER9 MAX</a>에 직접 AI를 올려봤는데, 결론부터 말하면 <strong>&#8220;돌아는 간다. 근데 느리다.&#8221;</strong></p>
<figure class="wp-block-image size-large"><img fetchpriority="high" decoding="async" width="940" height="627" src="https://prsm-studio.com/wp-content/uploads/2026/03/stock-30530416.jpg" alt="DeepSeek AI 인터페이스를 보여주는 MacBook으로 디지털 혁신을 선보입니다." class="wp-image-220" srcset="https://prsm-studio.com/wp-content/uploads/2026/03/stock-30530416.jpg 940w, https://prsm-studio.com/wp-content/uploads/2026/03/stock-30530416-300x200.jpg 300w, https://prsm-studio.com/wp-content/uploads/2026/03/stock-30530416-768x512.jpg 768w" sizes="(max-width: 940px) 100vw, 940px" /><figcaption>Photo by Matheus Bertelli / Pexels</figcaption></figure>
<h2>Ollama — 로컬 LLM 엔진</h2>
<p>Ollama는 내 컴퓨터에서 AI 모델을 돌릴 수 있게 해주는 프로그램입니다. 어려울 것 같죠? 설치는 AI한테 시켰습니다. 터미널에 명령어 몇 줄 넣으면 끝이에요.</p>
<p>설치가 끝나면 <code>ollama run qwen3:14b</code> 한 줄로 AI가 대답하기 시작합니다. 모델은 알아서 다운로드되고, 별도 설정 없이 바로 채팅이 가능해요.</p>
<p>현재 돌릴 수 있는 오픈소스 모델이 수십 개가 넘습니다. Llama, Qwen, Gemma, Mistral, DeepSeek… 전부 무료. 원하는 걸 골라 쓰면 됩니다.</p>
<h2>Open WebUI — 브라우저에서 ChatGPT처럼</h2>
<p>터미널에서 채팅하는 건 솔직히 불편합니다. 그래서 <strong>Open WebUI</strong>를 설치했어요. 브라우저에서 ChatGPT와 똑같은 인터페이스로 AI랑 대화할 수 있는 프로그램이에요.</p>
<p>이것도 설치는 AI한테 시켰습니다. Docker 컨테이너 하나 올리면 끝.</p>
<p>제일 좋은 건 <strong>와이프도 접속한다는 거예요.</strong> 같은 네트워크에 있으면 폰이든 태블릿이든 브라우저만 열면 됩니다. 계정도 만들 수 있어서 대화 기록도 각자 관리되고요. <a href="/code-illiterate-home-server-build-2-tailscale-remote-access-2/">2편에서 설정한 Tailscale</a>로 외부에서도 접속 가능합니다.</p>
<figure class="wp-block-image size-large"><img decoding="async" width="433" height="650" src="https://prsm-studio.com/wp-content/uploads/2026/03/stock-30530413.jpg" alt="DeepSeek 애플리케이션이 있는 대화형 AI 인터페이스를 보여주는 노트북 이미지." class="wp-image-221" srcset="https://prsm-studio.com/wp-content/uploads/2026/03/stock-30530413.jpg 433w, https://prsm-studio.com/wp-content/uploads/2026/03/stock-30530413-200x300.jpg 200w" sizes="(max-width: 433px) 100vw, 433px" /><figcaption>Photo by Matheus Bertelli / Pexels</figcaption></figure>
<h2>스펙과 성능의 현실 — 핵심은 여기</h2>
<p>로컬 AI 얘기에서 제일 중요한 게 <strong>&#8220;내 컴퓨터로 돌릴 수 있는가?&#8221;</strong>입니다. 솔직한 실측 데이터를 공유할게요.</p>
<h3>제 서버 스펙</h3>
<table>
<tr>
<th>항목</th>
<th>사양</th>
</tr>
<tr>
<td>CPU</td>
<td>AMD Ryzen 7 255 (8코어 16스레드)</td>
</tr>
<tr>
<td>RAM</td>
<td>DDR5 32GB</td>
</tr>
<tr>
<td>GPU</td>
<td>내장 그래픽(AMD Radeon 780M) — <strong>사실상 없음</strong></td>
</tr>
<tr>
<td>저장장치</td>
<td>NVMe SSD 1TB</td>
</tr>
<tr>
<td>OS</td>
<td>Windows 11 + WSL2 (Linux)</td>
</tr>
</table>
<h3>실측 성능 (qwen3:14b 모델)</h3>
<table>
<tr>
<th>항목</th>
<th>수치</th>
</tr>
<tr>
<td>응답 속도</td>
<td><strong>5.5 토큰/초</strong></td>
</tr>
<tr>
<td>간단한 질문 응답</td>
<td>약 25초</td>
</tr>
<tr>
<td>RAM 점유</td>
<td>약 10GB</td>
</tr>
<tr>
<td>양자화</td>
<td>Q4_K_M (9.3GB)</td>
</tr>
</table>
<p>ChatGPT나 Gemini가 1초 만에 답하는 걸, <strong>제 서버는 25초 걸립니다.</strong> 체감으로 5~10배 느려요. 글자가 한 자 한 자 천천히 나타나는 걸 보고 있으면… 인내심 테스트입니다.</p>
<h3>왜 이렇게 느린가?</h3>
<p><strong>GPU가 없기 때문입니다.</strong> AI 연산은 GPU(그래픽카드)에 최적화되어 있는데, 제 미니PC에는 내장 그래픽밖에 없어요. AMD 780M iGPU는 WSL2 환경에서 AI 가속으로 사용할 수 없다는 것도 확인했습니다. 결국 <strong>CPU로만 연산</strong>하니까 느린 거예요.</p>
<p>NVIDIA GPU가 있는 PC라면? 같은 모델이 <strong>5~10배 빨라집니다.</strong> RTX 4060 정도면 30토큰/초 이상 나와요. 하지만 일반 미니PC에는 외장 GPU를 달 수 없으니, 이건 데스크톱이나 게이밍 노트북 영역이에요.</p>
<h3>RAM이 곧 모델 크기를 결정한다</h3>
<p>로컬 AI에서 제일 중요한 스펙은 <strong>RAM</strong>입니다. 모델 전체가 메모리에 올라가거든요.</p>
<table>
<tr>
<th>RAM</th>
<th>돌릴 수 있는 모델</th>
<th>체감 품질</th>
</tr>
<tr>
<td>8GB</td>
<td>7B (70억 파라미터)</td>
<td>간단한 대화 가능, 복잡한 건 한계</td>
</tr>
<tr>
<td>16GB</td>
<td>14B (140억 파라미터)</td>
<td>일상 대화 무난, 일반 업무 가능</td>
</tr>
<tr>
<td>32GB</td>
<td>14B + 여유 / 30B급 시도 가능</td>
<td>14B를 편하게 + 다른 서비스 병행</td>
</tr>
<tr>
<td>64GB+</td>
<td>70B (700억 파라미터)</td>
<td>ChatGPT에 근접한 품질</td>
</tr>
</table>
<p><strong>7B vs 14B vs 70B — 크기가 곧 품질입니다.</strong> 7B는 간단한 대화는 되지만 복잡한 질문에서 헛소리를 자주 합니다. 14B가 &#8220;그래도 쓸만하다&#8221;고 느끼는 최소 기준선이에요. 70B는 품질이 확 올라가지만 RAM도 40GB 이상 필요합니다.</p>
<p>제가 32GB인 이유도 이겁니다. 14B 모델을 올리면서 다른 Docker 서비스들(<a href="/code-illiterate-home-server-build-3-immich-photo-backup/">Immich</a>, WordPress, n8n 등)도 동시에 돌려야 하니까요.</p>
<figure class="wp-block-image size-large"><img decoding="async" width="867" height="650" src="https://prsm-studio.com/wp-content/uploads/2026/03/stock-31993524.jpg" alt="선명한 노란색 표면의 T-Force Delta RGB DDR5 메모리 모듈." class="wp-image-222" srcset="https://prsm-studio.com/wp-content/uploads/2026/03/stock-31993524.jpg 867w, https://prsm-studio.com/wp-content/uploads/2026/03/stock-31993524-300x225.jpg 300w, https://prsm-studio.com/wp-content/uploads/2026/03/stock-31993524-768x576.jpg 768w" sizes="(max-width: 867px) 100vw, 867px" /><figcaption>Photo by Andrey Matveev / Pexels</figcaption></figure>
<h2>그래서 쓸만한가?</h2>
<p>솔직하게 정리하면 이렇습니다.</p>
<p><strong>쓸만한 경우:</strong></p>
<ul>
<li>단순 대화, 번역, 요약 — 느려도 결과물은 나옴</li>
<li>프라이버시가 중요한 내용 — 회사 기밀 문서 분석 등</li>
<li>인터넷 없이 쓰고 싶을 때 — 비행기, 오프라인 환경</li>
<li>AI 기능을 다른 프로그램에 연결할 때 — API 호출 무제한, 무료</li>
</ul>
<p><strong>안 쓸만한 경우:</strong></p>
<ul>
<li>코딩, 복잡한 분석 — 클라우드 AI가 압도적으로 잘함</li>
<li>빠른 응답이 필요할 때 — 25초 기다릴 인내심이 없다면</li>
<li>최신 정보가 필요할 때 — 로컬 모델은 학습 시점 이후 정보를 모름</li>
</ul>
<p>결론적으로, 로컬 AI의 핵심 가치는 <strong>&#8220;무료&#8221;</strong>와 <strong>&#8220;프라이버시&#8221;</strong>입니다. 성능을 기대하면 실망하고, 이 두 가지가 중요한 사람에게는 충분한 가치가 있어요.</p>
<h2>다음 편 예고</h2>
<p>지금까지 서버 조립부터 원격 접속, 사진 백업, 로컬 AI까지 왔습니다. 다음 편에서는 이 모든 걸 하나로 묶어주는 핵심 — <strong>AI 에이전트와 텔레그램 봇</strong>을 다뤄볼게요. 텔레그램으로 말 걸면 AI가 알아서 일하는, 진짜 &#8220;내 졸개&#8221; 만들기입니다.</p>
<p><strong>EP.5 — AI 에이전트 + 텔레그램: 내 서버에 비서를 두다</strong>, 기대해주세요.</p>
<p><a class="a2a_button_facebook" href="https://www.addtoany.com/add_to/facebook?linkurl=https%3A%2F%2Fprsm-studio.com%2Fcode-illiterate-home-server-build-4-ollama-local-ai%2F&amp;linkname=%5B%EC%BB%B4%ED%93%A8%ED%84%B0%20%EB%86%80%EC%9D%B4%5D%20%EC%BD%94%EC%95%8C%EB%AA%BB%EB%8F%84%20%ED%96%88%EB%8B%A4%21%20%EB%82%98%EB%A7%8C%EC%9D%98%20%ED%99%88%EC%84%9C%EB%B2%84%20%EA%B5%AC%EC%B6%95%EA%B8%B0%20%284%29%20%E2%80%94%20Ollama%EB%A1%9C%20%EB%82%B4%20PC%EC%97%90%EC%84%9C%20AI%20%EB%8F%8C%EB%A6%AC%EA%B8%B0" title="Facebook" rel="nofollow noopener" target="_blank"></a><a class="a2a_button_mastodon" href="https://www.addtoany.com/add_to/mastodon?linkurl=https%3A%2F%2Fprsm-studio.com%2Fcode-illiterate-home-server-build-4-ollama-local-ai%2F&amp;linkname=%5B%EC%BB%B4%ED%93%A8%ED%84%B0%20%EB%86%80%EC%9D%B4%5D%20%EC%BD%94%EC%95%8C%EB%AA%BB%EB%8F%84%20%ED%96%88%EB%8B%A4%21%20%EB%82%98%EB%A7%8C%EC%9D%98%20%ED%99%88%EC%84%9C%EB%B2%84%20%EA%B5%AC%EC%B6%95%EA%B8%B0%20%284%29%20%E2%80%94%20Ollama%EB%A1%9C%20%EB%82%B4%20PC%EC%97%90%EC%84%9C%20AI%20%EB%8F%8C%EB%A6%AC%EA%B8%B0" title="Mastodon" rel="nofollow noopener" target="_blank"></a><a class="a2a_button_email" href="https://www.addtoany.com/add_to/email?linkurl=https%3A%2F%2Fprsm-studio.com%2Fcode-illiterate-home-server-build-4-ollama-local-ai%2F&amp;linkname=%5B%EC%BB%B4%ED%93%A8%ED%84%B0%20%EB%86%80%EC%9D%B4%5D%20%EC%BD%94%EC%95%8C%EB%AA%BB%EB%8F%84%20%ED%96%88%EB%8B%A4%21%20%EB%82%98%EB%A7%8C%EC%9D%98%20%ED%99%88%EC%84%9C%EB%B2%84%20%EA%B5%AC%EC%B6%95%EA%B8%B0%20%284%29%20%E2%80%94%20Ollama%EB%A1%9C%20%EB%82%B4%20PC%EC%97%90%EC%84%9C%20AI%20%EB%8F%8C%EB%A6%AC%EA%B8%B0" title="Email" rel="nofollow noopener" target="_blank"></a><a class="a2a_dd addtoany_share_save addtoany_share" href="https://www.addtoany.com/share#url=https%3A%2F%2Fprsm-studio.com%2Fcode-illiterate-home-server-build-4-ollama-local-ai%2F&#038;title=%5B%EC%BB%B4%ED%93%A8%ED%84%B0%20%EB%86%80%EC%9D%B4%5D%20%EC%BD%94%EC%95%8C%EB%AA%BB%EB%8F%84%20%ED%96%88%EB%8B%A4%21%20%EB%82%98%EB%A7%8C%EC%9D%98%20%ED%99%88%EC%84%9C%EB%B2%84%20%EA%B5%AC%EC%B6%95%EA%B8%B0%20%284%29%20%E2%80%94%20Ollama%EB%A1%9C%20%EB%82%B4%20PC%EC%97%90%EC%84%9C%20AI%20%EB%8F%8C%EB%A6%AC%EA%B8%B0" data-a2a-url="https://prsm-studio.com/code-illiterate-home-server-build-4-ollama-local-ai/" data-a2a-title="[컴퓨터 놀이] 코알못도 했다! 나만의 홈서버 구축기 (4) — Ollama로 내 PC에서 AI 돌리기"></a></p><p>The post <a href="https://prsm-studio.com/code-illiterate-home-server-build-4-ollama-local-ai/">[컴퓨터 놀이] 코알못도 했다! 나만의 홈서버 구축기 (4) — Ollama로 내 PC에서 AI 돌리기</a> appeared first on <a href="https://prsm-studio.com">Prsm Studio</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://prsm-studio.com/code-illiterate-home-server-build-4-ollama-local-ai/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
