当前位置: 首页 > news >正文

教你在本地部署AI大模型,效果很赞!

随着人工智能的发展,AI与我们的工作与生活变得越来越紧密。AI大模型主要分为开源和不开源两类。现如今开源模型变得越来越好,甚至超过了很多不开源的大模型。

前不久谷歌发布了gemma2模型的2B版本(20亿参数),让我们能够在性能十分有限的电脑上也能流畅运行本地大模型。在我的小破笔记本上都可以流畅出色运行,而且效果很赞!

不要小看gemma2,在大模型竞技场 LMSYS Chatbot Arena 中,Gemma 2B得分高于 GPT-3.5-Turbo,在我的实际测试下来感觉效果还是非常不错的,平时作为自己的AI助理处理文件写写代码都非常好用。

本期教大家如何在自己的本地电脑部署gemma2模型,让自己的个人电脑在不需要网络的情况下也能使用AI。部署方法非常简单,相信你一定可以成功。

部署步骤

1. 下载安装Ollama服务软件并进行配置

你可以前往Ollama官网https://ollama.com/,Download适合自己系统的软件

下载完成后双击安装即可!

注意,现在你还没有下载任何模型,接下来我们需要下载模型到本地。


在此之前你需要知道,如果你什么都不设置的话,模型会默认安装到C盘,如果你想把模型安装到其他硬盘可以按照下面的操作来配置环境变量。

WIn+I打开系统设置,然后再系统–>系统信息–>高级系统设置中点击环境变量

然后在系统变量下点击新建,分别输入OLLAMA_MODELS和你想要存放模型的文件夹地址,例如F:\AI_MODELS,然后点击确定。

完成之后就可以确保你接下来的步骤中模型下载安装到你设置的目录中去了。

2. 下载一个本地AI模型

请先打开你安装好的OLLAMA软件,这时候在任务栏中应该会出现一个羊驼图标,表示服务正在运行。

关于部署AI模型,这里贴心地写了两个方法,任选其一即。如果你只是想快速部署好这个模型使用,可以看小白版;有更多的好奇心可以看详细版。强烈建议两个版本教程都看完后在进行安装。

针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉[CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)]()👈

小白版

我们下载一个简单的本地模型使用软件——LLOCAL来安装和使用本地模型。

进入LLOCAL官网https://www.llocal.in/

然后下载适合自己系统的软件并安装打开。

在左下角找到Setting,然后在Pull a new model中填写gemma2:2b然后点击右边的搜索图标就开始下载安装本地模型了。接下来你需要耐心等待一会,大概十几分钟左右提示安装完成你就可以选择这个模型并进行对话了。

是不是非常简单呢?

详细版

我们查看OLLAMA官网,右边有个Models,你会发现有很多的大模型可以部署,著名的llama3就在其中,但是它太大了,你的电脑可能跑不起来。我们选择一个适合自己电脑的,这里我们选择Gemma2,点进去后我们选择最小的2B模型,复制下载运行命令ollama run gemma2:2b

WIN+R键输入cmd后回车,点击鼠标右键将复制下来地命令输入到控制台,然后运行,接下来就会下载模型了,我们下载地这个模型有1.6GB,耐心等待即可。我自己在下载的时候发现在快下完时下载速度会突然变慢,如果你也遇到这种情况耐心等待即可,我怀疑在最后它会下载一些校验用的小文件,所以最后会很慢。

下载完成之后你可以在这个窗口直接与之对话了。

你可能发现GEMMA2的9B版本也才5.4G,它的效果会不会更好呢?确实9B版本(90亿参数)对话效果肯定要比2B版本好很多,你可以用同样的方法来安装使用9B版本,但是9B版本对电脑的要求要高一些,实际测试下来使用9B版本对话时内存占用量高达9G,所以你的电脑运行内存至少要达到12GB以上才能运行这个模型。

性能说明

得益于GEMMA2:2B版本的出现,才让我在自己这台小破笔记本上也能运行比较实用的本地AI模型,那运行本地AI模型到底吃什么配置呢?可不可以选择其他的模型。

AI模型的计算速度主要取决于你的CPU和显卡。

OLLAMA支持的显卡列表如下:

如果你有这些显卡,可以使用显卡性能进行计算,如果同时你的运行内存大于16GB,那么你可以流畅地运行9B版本,个人感觉这个版本地使用体验要超过GPT-4o。如果没有列表中的显卡,那么就会调用CPU来进行计算了,使用9B版本运行起来可能会略微有些慢。

读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用

对于0基础小白入门:

如果你是零基础小白,想快速入门大模型是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓
在这里插入图片描述

👉AI大模型学习路线汇总👈

大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉大模型视频和PDF合集👈

观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
在这里插入图片描述
在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓
在这里插入图片描述


http://www.mrgr.cn/news/30894.html

相关文章:

  • GEE教程:对降水数据进行重投影(将10000m分辨率提高到30m)
  • 微信小程序自定义navigationBar顶部导航栏(背景图片)适配所有机型,使用tdesign-miniprogram t-navbar设置背景图片
  • 中国光刻机突破28nm?进步巨大但前路漫漫
  • Go语言并发模式详解:深入理解管道与上下文的高级用法
  • STM32调试TIC12400笔记
  • 大模型之RAG-关键字检索的认识与实战(混合检索进阶储备)
  • 【HTTP】方法(method)以及 GET 和 POST 的区别
  • 阿里国际发布最新版多模态大模型Ovis,拿下开源第一
  • 第二证券:金价涨了!创一历史之最!
  • RAG+Agent人工智能平台:RAGflow实现GraphRAG知识库问答,打造极致多模态问答与AI编排流体验
  • 无消息传递的图变换器中的图归纳偏差
  • 各种文件格式对应的ContentType,适用于文件接收与上传下载等场景...
  • SaaS架构:流程架构分析
  • 惠海H6118 DC-DC 降压恒流芯片30V36v40V48V降12V9V24V36V 1.2A大电流 调光降压芯片IC舞台灯
  • 【2025】中医药健康管理小程序(安卓原生开发+用户+管理员)
  • 从《中国数据库前世今生》看中国数据库技术的发展与挑战
  • 记录一次显卡驱动安装
  • 使用mysql-proxy代理服务器上的mysql.sock连接以及mysql-proxy的配置意义及配置示例
  • BLE 协议之链路层
  • 将Python工程打成可执行文件