ОПТИМІЗАЦІЯ МНОЖЕННЯ КВАНТОВАНИХ ОДНОБІТНИХ МАТРИЦЬ ДЛЯ ВЕЛИКИХ МОВНИХ МОДЕЛЕЙ
DOI:
https://doi.org/10.26906/SUNZ.2025.3.136Ключові слова:
квантовані операції, множення матриць, трансформери, великі мовні моделі, CUDA, GPU, LLM, Pytorch, нейронні мережіАнотація
У зв’язку з активним розвитком та вдосконаленням систем штучного інтелекту останнім часом обробка природної мови стала однією з найбільш актуальних та затребуваних задач. Засоби та алгоритми на базі великих мовних моделей, що забезпечують обробку природної мови та перетворення мови в текстові данні, активно застосовуються для реалізації методів автоматизації різноманітних повсякденних задач, а також систем обслуговування та оперативної взаємодії з людиною. Для швидкого та адекватного опрацювання природної мови, з врахуванням синтаксичних та національних особливостей необхідно використовувати досить складні мовні моделі. Але великі мовні моделі потребують значних обсягів пам’яті та обчислювальної потужності, що ускладнює їх повсякденне використання на пристроях з обмеженими ресурсами, таких як мобільні пристрої з автономним живленням, вбудовані системи та пристрої Інтернету речей. Таким чином, оптимізація алгоритмів роботи мовних моделей та зниження апаратних витрат на їх реалізацію є як ніколи актуальною задачею. Для пришвидшення виконання та зменшення необхідних об’ємів пам’яті використовують алгоритми квантування коефіцієнтів мовних моделей. В даній роботі сформульовано проблеми, що виникають під час виконання квантованих операцій множення матриць, розглянуто популярні підходи до реалізації алгоритму множення матриць на графічних прискорювачах, та реалізовано оптимізоване за швидкістю виконання ядро множення квантованих 1-бітних матриць.Завантаження
Посилання
1. Vaswani A., Shazeer N., Parmar N., Uszkoreit J., Jones L., Gomez A. N., Kaiser L., Polosukhin I. “Attention Is All You Need,” arXiv:1706.03762, Computation and Language (cs.CL); Machine Learning, 2023. DOI: 10.48550/arXiv.1706.03762.
2. Shoeybi M., Patwary M., Puri R., LeGresley P., Casper J., Catanzaro B. “Megatron-LM: Training Multi-Billion Parameter Language Models Using Model Parallelism,” arXiv:1909.08053, Computation and Language, 2020. DOI: 10.48550/arXiv.1909.08053.
3. Patterson D., Gonzalez J., Le Q., Liang C., Munguia L.-M., Rothchild D., So D., Texier M., Dean J. “Carbon Emissions and Large Neural Network Training,” arXiv:2104.10350, Computation and Language, 2021. DOI: 10.48550/arXiv.2104.10350.
4. Kaplan J., McCandlish S., Henighan T., Brown T. B., Chess B., Child R., Gray S., Radford A., Wu J., Amodei D. “Scaling Laws for Neural Language Models,” arXiv:2001.08361, Machine Learning (cs.LG); Machine Learning (stat.ML), 2020. URL: https://arxiv.org/abs/2001.08361; DOI: 10.48550/arXiv.2001.08361.
5. Jouppi N. P., Young C., Patil N., Patterson D. “In-Datacenter Performance Analysis of a Tensor Processing Unit,”arXiv:1704.04760, Hardware Architecture (cs.AR); Machine Learning (cs.LG); Neural and Evolutionary Computing (cs.NE),2017. DOI: 10.48550/arXiv.1704.04760.
6. Cao Y., Romero J., Olson J. P., Degroote M., Johnson P. D., Kieferová M., Kivlichan I. D., Menke T., Peropadre B., Sawaya N. P. D., Sim S., Veis L., Aspuru-Guzik A. “Quantum Chemistry in the Age of Quantum Computing,” Chemical Reviews, vol. 119 (19), ISSN 1520-6890, 2019, pp. 10856–10915. DOI: 10.1021/acs.chemrev.8b00803. DOI: https://doi.org/10.1021/acs.chemrev.8b00803
7. Zhou Y., Moosavi-Dezfooli S.M., Cheung N. M. and Frossard P. “Adaptive quantization for deep neural network.” In Proceedings of the 32th AAAI Conference on Artificial Intelligence (Vol. 32, No. 1), 2018. DOI: 10.1609/aaai.v32i1.11623. DOI: https://doi.org/10.1609/aaai.v32i1.11623
8. Kodali R. K., Upreti Y. P., Boppana L. “A Quantization Approach for the Reduced Size of Large Language Models.” 16th International Conference on Knowledge and Smart Technology (KST), Krabi, Thailand, 2024, pp. 144-148, DOI: 10.1109/KST61284.2024.10499664. DOI: https://doi.org/10.1109/KST61284.2024.10499664
9. Krishnamoorthi R. “Quantizing deep convolutional networks for efficient inference: A whitepaper.” arXiv:1806.08342, Machine Learning (cs.LG); Computer Vision and Pattern Recognition (cs.CV); 2018. DOI: 10.48550/arXiv.1806.08342.
10. Elias F., Ashkboos S., Hoefler T., Alistarh D. “Gptq: Accurate post-training quantization for generative pretrained transformers,” arXiv:2210.17323, Machine Learning (cs.LG), 2022. DOI: 10.48550/arXiv.2210.17323.
11. Shuming Ma, Hongyu Wang, Lingxiao Ma, Lei Wang, Wenhui Wang, Shaohan Huang, Li Dong, Ruiping Wang, Jilong Xue, Furu Wei. “The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits,” arXiv:2402.17764 (preprint), Computation and Language (cs.CL); Machine Learning (cs.LG), 2024. DOI: 10.48550/arXiv.2402.17764.
12. Chee J., Cai Y., Kuleshov V., De Sa C. “QuIP: 2-bit quantization of large language models with guarantees,”arXiv:abs/2307.13304, Machine Learning (cs.LG); Computation and Language, 2023. DOI: 10.48550/arXiv.2307.13304.
13. Ji Lin, Jiaming Tang, Haotian Tang, Shang Yang, Xingyu Dang, Song Han. “AWQ: activation-aware weight quantization for LLM compression and acceleration,” arXiv:abs/2306.00978, 2023. DOI: 10.48550/arXiv.2306.00978.
14. Chetlur S., Woolley C., Vandermersch P., Cohen J., Tran J., Catanzaro B., Shelhamer, E. “cuDNN: Efficient primitives for deep learning,” arXiv:1410.0759, Neural and Evolutionary Computing (cs.NE); 2014. DOI: 10.48550/arXiv.1410.0759.
15. Kumar R., Negi K. C., Sharma N. K., Gupta P. “Deep Learning-Driven Compiler Enhancements for Efficient Matrix Multiplication.” Journal of Computers, Mechanical and Management, 3(2), 2024. pp.08-18. DOI: 10.57159/gadl.jcmm.3.2.240122. DOI: https://doi.org/10.57159/gadl.jcmm.3.2.240122
16. Xiao G., Yin C., Zhou T., Li X., Chen Y., Li, K. “A Survey of Accelerating Parallel Sparse Linear Algebra.” ACM Computing Surveys, 56 (1), 2023. Article No.: 21, pp. 1-38. DOI: 10.1145/3604606. DOI: https://doi.org/10.1145/3604606
Downloads
Опубліковано
Номер
Розділ
Ліцензія
Авторське право (c) 2025 Dmytro Salnikov, Oleg Vasylchenkov, Dmytro Karaman

Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial 4.0 International License.