随着DeepSeek人工智能的火爆,有不少商家已经开始借助DeepSeek进行外贸网站或者是跨境电商业务的拓展。那么对于已经使用Hostinger VPS建站方案的商家该如何凭借DeepSeek,来实现外贸业务的运行呢?大家不要急,接下来就将为大家具体介绍Hostinger VPS运行DeepSeek的使用指南,以供大家参考。
一、Hostinger VPS运行DeepSeek前提条件
Ollama允许用户在私有服务器或本地机器上运行各种大型语言模型(LLM),以创建个人AI代理由于 Ollama 等 AI 平台需要大量资源,因此至少需要:
- 16GB 内存
- 12GB 存储空间
- 4 个 CPU 内核
对于操作系统,可以使用 Ubuntu 和 CentOS 等流行的 Linux 发行版,重要的是,应该运行最新版本以避免兼容性和安全问题。
如果没有满足要求的系统,可以从 Hostinger 购买一个,Hostinger VPS方案从每月 4 美元起,提供 4 个 CPU 内核、16 GB RAM 和 200 GB NVMe SSD 存储。Hostinger VPS具有各种作系统模板,可一键安装应用程序,包括 Ollama,这使得设置过程更快,对初学者更友好。此外Hostinger VPS 内置了 Kodee AI 助手,可以帮助用户解决问题或指导管理服务器,也可以要求它检查系统或为各种需求生成命令。
优惠码:NYSALE(额外10%独家优惠)
方案 | CPU | 内存 | NVMe 硬盘 | 流量 | 价格/月 |
KVM 1 | 1核 | 4GB | 50GB | 14TB | 35.99元 |
KVM 2 | 2核 | 8GB | 100GB | 8TB | 42.99元 |
KVM 4 | 4核 | 16GB | 200GB | 16TB | 74.99元 |
KVM 8 | 8核 | 32GB | 400GB | 32TB | 142.99元 |
《点击进入官网购买》
推荐阅读:《Hostinger VPS怎么样 Hostinger VPS速度和性能评测》
二、安装OllamaHostinger 用户可以通过在使用期间或在 hPanel 的作系统菜单中选择相应的模板来轻松安装 Ollama。否则则必须使用命令,首先使用 PuTTY 或 Terminal 通过 SSH 连接到服务器,如果想在本地安装 Ollama,请跳过此步骤,只需打开系统的终端即可。
连接后,请按照以下步骤安装 Ollama:
1、输入以下命令以更新服务器的存储库。如果使用基于 Red Hat Enterprise Linux 的发行版(如 CentOS 或 AlmaLinux),请将 apt 替换为 dnf。
sudo apt update
2、安装外部依赖项 – Ollama 正常运行所需的软件,命令如下:
sudo apt install python3 python3-pip python3-venv
3、输入以下命令以下载和设置 Ollama:
curl -fsSL https://ollama.com/install.sh | sh
4、通过运行以下命令创建 Python 虚拟环境:
python3 -m venv ~/ollama-webui && source ~/ollama-webui/bin/activate
5、运行此命令以设置 Ollama Web UI,也可以使用 Ollama CLI,但它很复杂且不太直观:
pip install open-webui
6、使用 Screen 启动虚拟终端,这将使 Ollama 在后台运行,即使在关闭 SSH 连接后也是如此。
screen -S Ollama
7、使用以下命令运行 Ollama:
open-webui serve
8、现在可以通过在 Web 浏览器中输入以下地址来访问 Ollama,请记住将 185.185.185.185 替换为自己的 VPS 实际 IP 地址:
185.185.185.185:8080三、设置 DeepSeek
1、确认 Ollama 可以正常运行后,来设置 DeepSeek R1 LLM,为此请返回到主机系统的命令行界面,然后按 Ctrl + C 停止 Ollama。
2、如果使用 Hostinger 操作系统模板安装 Ollama,只需通过 SSH 连接到服务器即可,最简单的方法是使用 Browser 终端,然后运行此命令以下载 Deepseek R1 模型,本文中将使用 7b 版本:
ollama run deepseek-r1:7b
3、如果打算使用其他版本,例如 1.5b,请相应地更改命令,等待系统完成 DeepSeek 的下载,由于LLM文件大小约为 5 GB,此过程可能需要很长时间,具体取决于互联网速度。
4、下载完成后,按 Ctrl + d 返回主 shell,然后运行以下命令以检查 DeepSeek 是否配置正确:
ollama list
5、如果在 Ollama 列表中看到 DeepSeek,LLM则配置成功,现在重新启动 Web 界面:
open-webui serve四、测试 DeepSeek
1、访问 Ollama GUI 并创建一个新帐户,此用户将是 AI 代理的默认管理员。
2、登录后将看到主数据面板,可以在其中与 DeepSeek 进行交互,开始聊天,检查LLM功能是否正常。例如问什么是 VPS 托管。如果 DeepSeek 可以回答这个问题,则 LLM 和 AI 代理将按预期工作。
3、根据主机的互联网连接和资源消耗,DeepSeek 需要响应的时间会有所不同。
五、微调DeepSeek虽然 Ollama 和 DeepSeek 在默认配置下工作正常,但也可以根据自己的使用案例微调聊天设置。
要访问该菜单,请单击 Ollama 控制面板右上角个人资料图标旁边的滑块图标,在 Advanced Params 部分下,可以调整各种设置,包括:
- 流式聊天响应: 设置 AI 代理是否实时应答消息,启用此选项可提供更快的响应,但会消耗更多的计算能力。
- Seed (种子):允许 AI 代理在设置为特定值时为特定提示生成相同的答案,其默认值为 random t。
- Temperature (温度):设置 AI 代理的创造力水平,较高的值将导致更具创新性和想象力的答案。
- 推理程度:控制 AI 模型在生成答案之前思考的难度,该值的范围为 1-100,用于确定模型在最终确定响应之前将完成的推理迭代次数。
- Top K:降低产生无意义的可能性,设置高值意味着 AI 代理将返回非常多样化的答案,但产生错误的可能性很高。
- Max tokens (最大令牌数):设置 AI 模型可以使用的最大令牌数,值越高 AI 代理将输出较长的答案,但相关信息较少。
例如如果使用 DeepSeek 来帮助用户编写小说,则设置较高的 Temperature 值可能会有所帮助。相反可能希望在生成代码时降低它并增加推理工作量。
推荐阅读:
《Hostinger服务器怎么购买 Hostinger主机购买教程》
《Hostinger服务器怎么购买 Hostinger主机购买教程》
(本文由美国主机侦探原创,转载请注明出处“美国主机侦探”和原文地址!)

微信扫码加好友进群
主机优惠码及时掌握

QQ群号:938255063
主机优惠发布与交流