Google의 연구원이 대규모 언어 모델(LLM)이 무한한 길이의 텍스트를 처리하게 하는 방법이라는 Infini-attention 에 관한 논문을 발표했습니다.
[2404.07143] Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention
https://arxiv.org/abs/2404.07143
Google's new technique gives LLMs infinite context | VentureBeat
https://venturebeat.com/ai/googles-new-technique-gives-llms-infinite-context/
Google Demonstrates Method to Scale Language Model to Infinitely Long Inputs
'컨텍스트 윈도우'라는 프레임이 있습니다.
예를 들어 ChatGPT의 경우 AI와의 대화량이 '컨텍스트 윈도우'를 초과하면 성능이 저하되고 대화의 시작 부분에 포함된 토큰이 삭제됩니다.
따라서 처리 가능한 토큰 양의 증가는 경쟁 우위 확보 및 모델 개선을 위해 중요한 요건이 되었습니다.
Transformer-XL과 달리 Infini-Transformers는 이전 세그먼트의 KV 어텐션 상태를 재사용하여 압축 메모리로 전체 컨텍스트 기록을 유지함으로써 효율적인 메모리 및 계산 사용을 달성합니다.
포인트는, 메모리와 계산량이 한정된 상태에서도 사용할 수 있는 기법이라는 점에서, 실험으로 장문의 언어 모델링 벤치마크를 실시했는데, Infini-attention을 사용한 모델은 기준이 되는 모델의 값을 웃돌아, 메모리 사이즈 기준으로 114배의 이해율을 달성했다는 것.
최대 5K 시퀀스 길이의 패스키 인스턴스로 미세 조정된 1B 모델은 1M 길이의 문제를 해결할 수 있으며, 이론적으로는 품질을 유지한 채 더 많은 토큰을 똑같이 처리할 수 있다고 합니다.
역시 넘사벽 구글 형님...
'AI · 인공지능 > AI 뉴스' 카테고리의 다른 글
무료로 상업적 이용도 가능한 오픈 모델 「Mixtral 8x22B」 가 등장 (8) | 2024.04.19 |
---|---|
Baidu의 채팅 AI 「Ernie Bot(어니봇)」 이용자가 2억 명을 돌파 (65) | 2024.04.18 |
일상 회화를 녹음하고 요약할 수 있는 펜던트형 AI 가젯 「Pendant」가 등장 (67) | 2024.04.17 |
스탠퍼드 대학의 2024 AI 리포트 「AI Index Report 2024」 (67) | 2024.04.17 |
일론 머스크의 xAI가 이미지를 이해할 수 있는 멀티모달 AI 「Grok-1.5」 를 발표 (67) | 2024.04.16 |
GPU와 AI를 활용해 기존 칩 제조 공장보다 비용은 100분의 1, 크기는 10분의 1, 제조 시간은 5분의 1로 단축 (67) | 2024.04.16 |
2025~2026년에는 AI 모델 학습 비용이 14조 원에 달해 인류를 위협하는 AI가 등장? (67) | 2024.04.16 |
Apple이 스마트폰 화면을 인식할 수 있는 멀티모달 LLM 「Ferret-UI」 를 발표 (55) | 2024.04.12 |