반응형 LLM in a flash1 Apple 이 효율적인 모델 운용을 위한「LLM in a flash」 를 발표 미국 애플은 2023년 12월 12일, 대규모 언어 모델(LLM)의 파라미터를 SSD 등의 외부 플래시 메모리에 저장해 PC에서 효율적인 모델 운용을 가능하게 하는 새로운 방법인 「LLM in a flash」를 발표했습니다. https://arxiv.org/abs/2312.11514 LLM in a flash: Efficient Large Language Model Inference with Limited MemoryLarge language models (LLMs) are central to modern natural language processing, delivering exceptional performance in various tasks. However, their substantial com.. 2024. 1. 17. 이전 1 다음 반응형