电脑上的GPT之GPT4All安装及使用

分享
计算机软件开发 2024-9-5 01:18:00 64 0 来自 中国
最告急的Git链接

众所周知ChatGPT功能超强,但是OpenAI 不可能将其开源。然而这并不影响研究单元连续做GPT开源方面的积极,比如前段时间 Meta 开源的 LLaMA,参数量从 70 亿到 650 亿不等,根据 Meta 的研究陈诉,130 亿参数的 LLaMA 模子“在大多数基准上”可以赛过参数量达 1750 亿的 GPT-3。
斯坦福也在 LLaMA 的底子上到场指令微调(instruct tuning),训练了一个名为 Alpaca 的 70 亿参数新模子(基于 LLaMA 7B)。结果表现,只有 70 参数的轻量级模子 Alpaca 性能也可媲美 GPT-3.5 如许的超大规模语言模子。
语言模子 GPT4All,这也是一种基于 LLaMA 的新型 7B 语言模子。
1. 克隆gpt4all

2. 下载gpt4all-lora-quantized.bin文件

下载地点

2.png 3. 下载乐成后把gpt4all-lora-quantized.bin文件复制到刚刚克隆的gpt4all文件的chat文件夹中

3.png 4. 实行您的利用体系运行得当的下令:


  • M1 Mac/OSX:cd chat;./gpt4all-lora-quantized-OSX-m1
  • Linux:cd chat;./gpt4all-lora-quantized-linux-x86
  • Windows(PowerShell):cd chat;./gpt4all-lora-quantized-win64.exe
  • 英特尔Mac/OSX:cd chat;./gpt4all-lora-quantized-OSX-intel
然后就完成了
您需要登录后才可以回帖 登录 | 立即注册

Powered by CangBaoKu v1.0 小黑屋藏宝库It社区( 冀ICP备14008649号 )

GMT+8, 2024-11-22 01:05, Processed in 0.186016 second(s), 36 queries.© 2003-2025 cbk Team.

快速回复 返回顶部 返回列表