만 여전히 GPU 한 장으로 구동
페이지 정보
test 작성일25-04-16 15:04 조회16회 댓글0건본문
파라미터 수는 기존 22억패러미터에서 31억패러미터로 확장됐지만 여전히 GPU 한 장으로 구동 가능한 경량 구조를 유지하고 있다.
김성훈 업스테이지 대표 (사진=업스테이지) 김 대표는 "우리는 '솔라'를 지속적으로 업데이트하는 동시에 오픈AI 'o 시리즈'나 딥시크 'R1'과 유사한 '사고의 연쇄(CoT)' 추론 기능도.
또 "오는 6월 출시 예정인 솔라 프로 1.
6은 310억패러미터규모로, 벤치마크 결과 720억패러미터인 중국의 큐원(Qwen) 2.
5와 성능이 거의 비슷하다"며 성능에 자신감을 드러냈다.
업스테이지는 문서 처리에 특화된 비전언어모델(VLM)인 '솔라 DocVLM'도 출시한다.
업스테이지에 따르면 DocVLM은 메타의 라마(Llama) 4.
3버전은 국내 언론사의 데이터를 다수 학습한 모델로 국내 개발 모델 중 벤치마크 성능이 가장 높다"며 "오는 6월 출시 예정인 솔라 프로 1.
6은 310억패러미터규모로, 벤치마크 결과 720억패러미터인 중국의 큐원(Qwen) 2.
5와 성능이 거의 비슷하다"며 성능에 자신감을 드러냈다.
또 "오는 6월 출시 예정인 솔라 프로 1.
6은 310억패러미터규모로, 벤치마크 결과 720억패러미터인 중국의 큐원(Qwen) 2.
5와 성능이 거의 비슷하다"며 성능에 자신감을 드러냈다.
업스테이지는 문서 처리에 특화된 비전언어모델(VLM)인 '솔라 DocVLM'도 출시한다.
업스테이지에 따르면 DocVLM은 메타의 라마.
AI 서비스에 분산 클라우드가 필요한 이유 지금까지 AI 서비스 개발의 초점이 모델의 우수성이나패러미터의 규모, 구현 비용 등에 맞춰져 있었다면, AI 서비스 간의 경쟁이 치열해진 지금은 사용자 경험도 중요해졌다.
하지만 중앙집중형 클라우드를 기반으로 하는 AI 서비스로는 한계가 있다.
AI 서비스에 분산 클라우드가 필요한 이유 지금까지 AI 서비스 개발의 초점이 모델의 우수성이나패러미터의 규모, 구현 비용 등에 맞춰져 있었다면, AI 서비스 간의 경쟁이 치열해진 지금은 사용자 경험도 중요해졌다.
하지만 중앙집중형 클라우드를 기반으로 하는 AI 서비스로는 한계가 있다.
통합 메모리 중 최대 96GB를 통합 GPU로 돌려 메타 라마3.
1 700억개패러미터모델을 실시간 구동한다.
AMD 라이젠 AI 맥스 기반 Z북 울트라 G1a(왼쪽), Z2 미니 G1a(오른쪽).
(사진=지디넷코리아) Z2 미니 G1a는 120W급 AMD APU와 최대 128GB 메모리를 내장한 미니 PC다.
전원공급장치를 본체 내 통합하고 부피를.
'딥시크 쇼크'로 잘 알려진 중국 오픈소스 AI 추론 모델, '딥시크 R1' 원본 모델의 경우 6,710억개의패러미터를 가지고 있고, 이를 실행하기 위해서는.
딥시크는 '지식 증류' 기법을 통해 자사 AI에 사용되는패러미터를 줄이고, 결과적으로 보다 적은 용량의 메모리로 양질의 생성형 AI를 구동할 수.
카트라이더 러쉬플러스 콜라보 때는 감수를 맡았는데, 자동차의 스펙패러미터등이 소닉과 잘 어울리는지 같은 것을 직접 체크했었다.
라그나로크 콜라보 때는 그라비티의 한국 개발팀과 함께 스토리를 만들어 정말 좋은 이야기를 만들었다고 생각한다.
앞으로도 여러 콜라보를 진행할 계획이니, 계속 응원.
http://covidmentalhealth.or.kr/
중국 딥시크 역시 같은 달 6천710억패러미터를 탑재한 'R1'을 내놨고 최근에는 앤트로픽이 '클로드 3.
이는 업계 최초로 일반형 AI와 추론형 AI를 통합한 하이브리드 모델이다.
5 프로'는 사고형 아키텍처에 멀티모달과 긴 맥락 기능까지 결합해 이들과의 경쟁을.
댓글목록
등록된 댓글이 없습니다.