开发环境搭建:在VMware虚拟机中配置LiuJuan20260223Zimage模型本地测试环境
开发环境搭建在VMware虚拟机中配置LiuJuan20260223Zimage模型本地测试环境对于很多刚开始接触AI模型本地部署的开发者来说一个常见的困扰是手头没有高性能的物理GPU或者不想在主力开发机上折腾复杂的依赖环境怕搞乱了系统。这时候一个隔离、干净且可复现的测试环境就显得尤为重要。今天我就来手把手带你完成这件事。我们将使用VMware虚拟机从零开始搭建一个Linux系统并在其中配置好运行LiuJuan20260223Zimage模型的环境。无论你是想用CPU来模拟运行还是尝试为虚拟机配置GPU直通以获得更好的性能这篇教程都会覆盖到。整个过程就像搭积木一样一步步来保证你能跟着做下来。1. 准备工作与虚拟机创建在开始安装系统之前我们需要准备好两样东西VMware软件和一个Linux系统镜像。首先你需要下载并安装VMware Workstation Player个人使用免费或VMware Workstation Pro。安装过程很简单一路“下一步”即可。接下来是选择Linux发行版我强烈推荐Ubuntu 22.04 LTS。LTS代表长期支持系统稳定社区资源丰富遇到问题也容易找到解决方案。你可以从Ubuntu官网下载它的ISO镜像文件。准备好后打开VMware点击“创建新的虚拟机”。选择安装来源在向导中选择“安装程序光盘映像文件(iso)”然后浏览到你刚才下载的Ubuntu 22.04 ISO文件的位置。命名虚拟机给你的虚拟机起个名字比如“AI-Model-Test”。并选择一个位置来存放虚拟机文件确保你的硬盘有足够空间建议预留至少50GB。指定磁盘容量虚拟机硬盘大小建议设置为40GB以上选择“将虚拟磁盘拆分成多个文件”这样更方便管理。自定义硬件关键步骤在向导最后点击“自定义硬件”。这里我们需要调整一些配置内存至少分配4GB4096 MB如果宿主机内存充裕分配8GB或更多会获得更流畅的体验。处理器核心数至少设置为2。如果你的CPU支持可以给更多。网络适配器选择“NAT模式”。这样虚拟机可以共享宿主机的网络上网同时拥有独立的内部IP是最方便的选择。其他USB控制器、声卡等如果不是必需可以移除以节省资源。点击“关闭”然后“完成”VMware就会开始创建你的虚拟机了。2. 安装Ubuntu Linux系统虚拟机创建好后会自动启动并进入Ubuntu安装界面。选择语言在第一个界面选择“中文简体”或你偏好的语言然后点击“安装Ubuntu”。键盘布局保持默认的“Chinese”即可。安装类型对于新手我建议选择“正常安装”它会包含网页浏览器、办公软件等常用工具。如果你想系统更精简可以选择“最小安装”。务必勾选“为图形或无线硬件安装第三方软件”这能确保更好的硬件兼容性。磁盘分区这是最关键也最简单的一步。因为我们是在虚拟硬盘上安装所以直接选择“清除整个磁盘并安装Ubuntu”然后点击“现在安装”。不用担心这只会清除虚拟硬盘不会影响你真实的电脑硬盘。时区与用户在地图上点击“上海”设置时区。接着设置你的用户名、计算机名和密码。记住这个密码后续执行管理员命令时会用到。安装过程会自动进行期间你可以看看幻灯片介绍。安装完成后系统会提示你重启。点击“现在重启”VMware可能会提示你“请移除安装介质”按回车键继续。重启后你就进入了全新的Ubuntu桌面环境。3. 系统基础配置与依赖安装进入系统后我们先别急着部署模型。为了让后续步骤更顺畅我们需要做一些基础配置并安装必要的软件依赖。首先打开“软件和更新”程序在“下载自”那里选择一个国内的镜像源比如“阿里云”或“清华源”。这能显著提升后续下载软件包的速度。接着打开终端快捷键CtrlAltT我们来执行一些命令。第一步更新系统软件包列表并升级现有软件sudo apt update sudo apt upgrade -y输入密码后系统会开始更新这可能需要几分钟。第二步安装一些基础开发工具和Python环境LiuJuan模型镜像很可能基于Python所以我们需要安装Python和包管理工具pip。Ubuntu 22.04默认安装了Python 3.10我们确保pip也安装好。sudo apt install -y python3-pip python3-venv git curl wgetpython3-pip: Python的包安装工具。python3-venv: 用来创建Python虚拟环境避免项目间的依赖冲突。git: 版本控制工具用于克隆代码仓库。curl/wget: 命令行下载工具。第三步可选但推荐配置Python虚拟环境在用户目录下创建一个专门的项目文件夹并在其中创建虚拟环境。cd ~ mkdir ai_test_project cd ai_test_project python3 -m venv liujuan_env激活这个虚拟环境source liujuan_env/bin/activate激活后你的命令行提示符前面会出现(liujuan_env)字样表示你正在这个独立的环境中工作。后续所有Python包的安装都会局限在这个环境里。4. 配置模型运行环境现在我们来到了核心环节为运行LiuJuan20260223Zimage模型准备具体的环境。由于我们不确定该镜像的精确依赖这里我提供两种通用的准备思路。4.1 思路一基于Docker部署推荐如果LiuJuan模型提供了Docker镜像这是最省心的方法。Docker能确保环境与镜像提供者完全一致。安装Docker# 更新索引并安装依赖 sudo apt update sudo apt install -y ca-certificates curl gnupg # 添加Docker官方GPG密钥 sudo install -m 0755 -d /etc/apt/keyrings curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg sudo chmod ar /etc/apt/keyrings/docker.gpg # 设置Docker仓库 echo \ deb [arch$(dpkg --print-architecture) signed-by/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu \ $(. /etc/os-release echo $VERSION_CODENAME) stable | \ sudo tee /etc/apt/sources.list.d/docker.list /dev/null # 安装Docker引擎 sudo apt update sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin将当前用户加入docker组避免每次用sudosudo usermod -aG docker $USER执行此命令后你需要完全注销当前用户再重新登录或者重启虚拟机才能使更改生效。拉取并运行模型镜像重新登录后激活之前的虚拟环境如果用了的话然后使用Docker命令。假设镜像名为registry.example.com/liujuan:20260223z请替换为实际镜像名。docker pull registry.example.com/liujuan:20260223z docker run -it --rm -p 7860:7860 registry.example.com/liujuan:20260223z这里-p 7860:7860将容器内的7860端口映射到宿主机的7860端口这是很多AI Web UI如Gradio的默认端口。4.2 思路二基于源码与requirements.txt安装如果模型提供了源代码和requirements.txt依赖文件。克隆代码或获取模型文件git clone 模型仓库地址 . # 或者将你下载好的模型文件解压到当前目录安装PyTorch等深度学习框架这是最可能出问题的部分。我们需要安装与CPU兼容的PyTorch。前往 PyTorch官网 获取安装命令。对于纯CPU环境命令通常类似pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cpu安装其他依赖pip install -r requirements.txt如果遇到某个包安装失败可以尝试单独安装或搜索错误信息寻找解决方案。5. 性能优化与GPU直通高级可选在VMware虚拟机中使用GPU性能无法与物理机媲美但通过一些配置可以显著改善体验。5.1 安装VMware Tools这能提升虚拟机的显示性能、鼠标集成和文件共享能力。在VMware菜单栏点击“虚拟机” - “安装VMware Tools”然后在Ubuntu桌面会自动挂载一个光盘。打开终端执行cd /media/$USER/VMware\ Tools/ tar -xzf VMwareTools-*.tar.gz -C /tmp/ cd /tmp/vmware-tools-distrib/ sudo ./vmware-install.pl -d-d参数代表接受所有默认选项。安装完成后重启虚拟机。5.2 尝试GPU直通要求宿主机和VMware版本支持这需要宿主机的CPU和主板支持VT-d/AMD-Vi技术并且VMware Workstation Pro版本支持。关闭虚拟机。在VMware中右键点击虚拟机 - “设置”。在“硬件”选项卡点击“添加”。选择“PCI设备”点击“下一步”。在列表中你应该能看到你的物理GPU例如NVIDIA GeForce RTX 4060。选中它点击“下一步”直至完成。启动虚拟机。如果直通成功在Ubuntu终端输入lspci | grep -i vga或lspci | grep -i nvidia应该能看到你的GPU。接下来你需要在虚拟机内安装对应的NVIDIA驱动步骤与物理机类似可通过ubuntu-drivers工具或从NVIDIA官网下载.run文件安装。请注意GPU直通成功后宿主机将无法使用该GPU。这是一个高级功能配置过程可能遇到各种问题需要一定的排错能力。6. 运行测试与常见问题环境配置好后让我们启动模型进行测试。根据你选择的方式Docker或源码运行启动命令。例如如果是一个Web应用启动后通常在终端会输出一个本地访问地址比如http://127.0.0.1:7860。由于虚拟机是独立系统你需要在Ubuntu自带的浏览器如Firefox中打开这个地址进行测试。你也可以在虚拟机设置中配置“网络适配器”为“桥接模式”这样虚拟机会获得一个与宿主机同网段的独立IP你就可以在宿主机的浏览器中用虚拟机的IP地址来访问了比如http://192.168.1.xxx:7860。可能会遇到的一些问题端口无法访问检查防火墙。Ubuntu默认的UFW防火墙可能关闭如果开启了需要放行端口sudo ufw allow 7860。内存/CPU不足如果模型运行缓慢或报内存错误请关闭虚拟机在VMware设置中增加分配的内存和CPU核心数。依赖安装失败仔细阅读错误信息。常见原因是Python版本不匹配或系统缺少某些底层开发库如build-essential,libssl-dev。可以尝试安装sudo apt install -y build-essential libssl-dev。Docker权限错误确保已执行usermod命令并重新登录。整体走下来你会发现用VMware搭建一个AI模型测试环境并没有想象中那么复杂。它最大的好处就是隔离和安全你可以在这个“沙盒”里随意安装、卸载、调试而不用担心影响你的主力机。对于没有独立GPU的开发者用CPU模式跑通流程、理解原理是完全可行的。如果后续需要性能再研究GPU直通或者迁移到有物理GPU的环境。这个过程里最花时间的可能就是解决一些依赖包的小问题多利用搜索引擎大部分都能找到答案。希望这个详细的步骤能帮你顺利搭起自己的测试环境愉快地开始你的AI模型探索之旅。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。