산업
서울대, 올인원 옴니모달 모델 ‘다이닌-옴니’ 개발..."기존 모델 대비 우수"
서울대학교 공과대학은 도재영 전기정보공학부 교수 연구팀AIDAS 연구실이 텍스트와 이미지, 영상, 소리를 하나의 모델이 동시에 이해하고 만들어낼 수 있는 차세대 AI 파운데이션 모델 ‘다이닌옴니DyninOmni’를 개발했다고 8일 밝혔다.다이닌 옴니는 글자, 사진, 영상, 소리를 한 데 묶어 처리하며, 정보를 이해하고 결과를 생성하기까지 모든 과정을 하나의 모델 안에서 동시에 수행하는 네이티브 멀티모달 모델이다. 연구진은 AI 모델이 모든 감각 정보를 동시에 처리하는 새로운 구조를 설계해, 정보를 순서대로 하나씩 생성하는
이 콘텐츠는 AI타임스 원본 기사의 요약입니다. 전문은 원본 사이트에서 확인해주세요.
원문 기사 보기 →