
Large Language Models Deployment
本课程旨在教授学生如何将大型自然语言处理模型(如GPT-3)部署到本地环境,并构建应用程序来利用这些模型的强大能力。
Technologies Used
Astro TypeScript TailwindCSS Node.js
Key Features
Real-time sales analytics
Inventory management system
Order processing workflow
Customer relationship management
Automated reporting
第一节:安装和设置开发环境,简述Huggingface
部署大语言模型的原因:
延迟低,仅局域网或者不需要网路、数据私密性强、成本低(长期使用), 但回复速度依赖硬件、不容易宕机、更加灵活可微调、模型相对小
部署环境:Windows+驱动+Cuda,语言用Python,必备包Pytorch+Transformers
HuggingFace:自然语言处理NLP社区和开发者平台 → Models
Transformers由HuggingFace创建和维护,用于处理NLP任务的预训练语言模型。这个库的名称来源于“transformer”模型架构,这是一种革命性的深度学习架构,用于处理序列数据,特别适用于NLP任务。
特点:提供了各种预训练的语言模型;多任务适用性;灵活性,适用于不同的编程框架;允许微调;允许模型交换和共享。
大模型名称后缀是一个数字加“b”,是参数个数,billion十亿,参数量直接影响显卡显存。比如,6b至少需要12g的显存。
显卡性能取决于最差的那张,多卡并行运算,会消耗大量电力和释放大量热量。建议最低2080。
从Nvidia下载对应的显卡驱动,cmd运行nvidia-smi查看CUDA版本,根据CUDA版本, 下载CUDA Toolkit
CUDA是一种协助“CPU任务分发+GPU并行处理”的编程模型/平台,用于加速GPU和CPU之间的计算。它使开发者将原本只能通过传统的CPU来完成的计算任务,转移到GPU上运行。
安装虚拟环境anconda,配置环境变量:在计算机中搜索“编辑系统环境变量”,点击“环境变量”,在path中编辑环境变量
Completed on: Mar 15, 2025