본문 바로가기

Apple Developer/Apple AI

Xcode beta 에서 On-Device AI 모델 사용해보기 (feat. Apple Intelligence)

728x90
반응형

후 

 

애플의 AI 수준은 어느정도 인가... 

 

wwdc25 에서 AI 세션을 한번 따라 해봤다. 

 

https://developer.apple.com/videos/play/wwdc2025/259/

 

Code-along: Bring on-device AI to your app using the Foundation Models framework - WWDC25 - Videos - Apple Developer

Develop generative AI features for your SwiftUI apps using the Foundation Models framework. Get started by applying the basics of the...

developer.apple.com

 

 

xcode 26 (beta 3) 를 다운 받은 뒤

위 영상에 나오는데로 한번 시도해봤다. 

 

import Playgrounds
import FoundationModels

#Playground {
    let session = LanguageModelSession()
    let response = try await session.respond(to: "Please create a plan to help improve my health. Tell me this plan for Korean.")
    
//    let response = try await session.respond(to: "한국어로 나에게 운동하는 법을 알려줘.")
    
}

 

 

그런데 프롬프트를 한글로 입력하니 

아예 답을 하지 않아서

 

영어로 프롬프트를 적어보고 한국어도 답 해달라고 했다. 

 

 

이렇게 7초 정도 걸려서 

글을 작성해 주는 걸 볼 수 있다. 

 

요거요거 한 1년 전 

ollama 로 7b 정도 되는 모델로 대화 하는 수준 정도 되는 것 같다. 

 

물론 별다른 셋팅 없이 xcode 에서 AI를 활용해서 앱 안에서 사용해 볼 수 도 있을 것 같은데...

 

역시나 on-device 의 장점보다는 

작은 모델의 단점이 더 보이는 모습이다. 

 

 

xcode 안에 Code Assistant 가 붙어 있긴 한데 

이 부분도 Apple Intelligence 를 사용하는 것보다 

ChatGPT를 선택해서 사용하는 편이 낫긴 한데...

 

xcode 가 이렇게 발전 하다니 하다가도...

일반인들도 Cursor AI 같은 툴을 사용하고 있는 세상에서 이정도 속도라면 

너무 늦은게 아닌가 싶다.. 심지어 아직 Beta..

 

나의 반려주 애플 힘내라~!!

728x90
반응형