本书介绍的大语言模型应用主要是指将大型模型部署到本地环境中,而不是直接使用ChatGPT等云端服务。换句话说,这些模型被安装在本地GPU算力服务器上运行,而不依赖其他在线服务资源。通过学习这些完整的大型模型应用案例,读者将全面了解大语言模型的部署方案和开发方法。