안녕하세요? 챗GPT 강사 캔로봇 입니다.
어제 Open Ai에서 GPT-4의 어그레이드 모델 GPT-4o를 발표 했습니다.
그냥 빠른 발전에 입이 다물어지지 않네요...
이번 GPT-4의 주요 기능 업데이트는 주로 음성비서의 기능들 입니다.
[진정한 멀티모달의 시대를 열다 GPT-4o]
GPT-4 Turbo보다 행상 된 처리 속도
음성 대화 시 끼어들어 대화하기
음성 대화시 비전 기능 이용하기
GPT의 풍부한 감정 표현
동시 통역 기능
[페이스북 그룹 나는 개발자다, 유승호님 게시, GPT-4 vs GPTo]
GTP-4o는 LLM을 넘어선 LMM모델 입니다.
구두로 질문을 하면 이 모델은 최소 232밀리초, 평균 320밀리초 안에 오디오로 응답할 수 있습니다. 이는 사람의 반응 속도와 비슷한 것으로, 기존 GPT-4의 5.4초에서 비약적으로 빨라진 것 입이다.
오픈AI는 GPT-4o가 GPT-4 터보보다 두배 더 빠르고 비용은 2분의 1 수준이라고 설명했습니다
기술적으로는 기존에 LMM을 구동하기 위해 텍스트와 이미지, 음성 부분을 따로 담당하는 것을 넘어, 모델 3개를 하나로 통합했다고 설명했습니다.
텍스트와 이미지, 오디오로 실시간 대화가 가능한 새로운 음성 어시스턴트 모델을 시연했으며. 새 모델의 'o'는 모든 것이라는 '옴니'(omni)를 뜻합니다.
아래는 [유튜브 준랩]의 한글 자막 발표 풀 영상 입니다.
Ai Korea의 보표님 해설 영상을 보시면 GPT-4o의 주요 기능에 대해서 더 잘 이해 하실 수 있습니다.
GPT-4o의 데모 시연을 보니 영화 Her가 드디어 현실이 될날도 머지 않았다는 생각이 드네요. 혹시 영화 안 보신 분은 리뷰라도 시청해보세요 ^^
Commenti