lxl 发表于 2025-2-9 14:33:30

如何运用DeepSeek R1构建一款全栈简历筛选应用


译者 | 核子可乐
审校 | 重楼
在本文中,我们将共同了解如何使用DeepSeek R1大模型构建智能简历分析应用,节约运营成本。
DeepSeek开源大模型的发布已经在技术社区引发巨大轰动。如今,开发者们无需接入Claude、ChatGPT等在线AI模型,即可轻松实现本地应用程序构建。换言之,开源大模型准入门槛的持续降低,为企业应用程序与生成式AI的集成打通了机会之桥。
在本文中,我们将学习如何在个人设备上本地运行开源模型,进而构建一款由React和NodeJS驱动的全栈应用程序。它能帮助大家快速分析简历内容,并做出明智的招聘决策。在构建之前,我们先聊聊开源大模型的优势所在。
开源大语言模型的优势

与专有模型相比,开源大模型拥有以下几个关键优势:
经济高效且无需许可证

开源大模型极具成本效益,无需特殊许可证。截至本文撰稿时,OpenAI o1的每百万输出token成本为60美元,而开源DeepSeek R1的成本仅为2.19美元。
可定制、可微调

开源大模型可轻松进行微调以满足独特的业务需求,在更多特定领域支撑业务用例。
增强数据安全性与隐私性

宝贵的个人数据无需被上传至第三方服务器,而仅保留在本地设备或企业网络之内,因此应用程序更加安全。此外,开源模型还可进行微调以消除数据偏差。
社区驱动,摆脱供应商锁定

开源模型享有广泛的社区支持,受益于快速功能开发,也避免了专有模型受供应商锁定、且高度依赖供应商提供功能更新的弊端。
在了解上述背景信息后,下面直奔主题,了解如何使用DeepSeek R1开源模型、Node.js和React构建应用程序。
项目与架构概述

我们的目标是构建一款简历分析器应用,快速把握上传简历中的基本信息与申请者的优缺点。DeepSeek R1大模型负责分析上传的简历并提供反馈。大家可通过下图了解这款应用的基本架构:

架构示意图
用户界面由React开发,通过REST API与基于NodeJS的后端进行通信。之后,NodeJS后端将用户请求发送至由Ollama托管的DeepSeek R1。整个技术栈可在单一设备上运行,亦可跨多个容器托管以支持更复杂的用例。
前期准备


[*]要运行此项目,你需要一台具备一定性能的设备,最好搭载英伟达独立显卡。此项目已在配备英伟达4090RTX的Windows设备和M2 MacBook Pro上通过开发测试。
[*]你还需要在设备上安装NodeJS。本项目使用NodeJS 22.3.0版本,你可使用node -v 命令验证NodeJS的安装情况。
[*]你还需要选定一款编辑器以处理代码。本示例中使用Visual Studio Code,推荐你使用同款工具。
在本地设置并运行DeepSeek

要在本地运行DeepSeek R1,请遵循以下步骤:

[*]从官方网站处(https://ollama.com/)安装Ollama。
[*]安装完成后,即可使用设备终端上的 ollama run 命令运行模型。
[*]运行你选定的DeepSeek模型。本教程中使用DeepSeek R1 8B参数模型。你可使用 ollama run deepseek-r1:8b命令运行该模型。
[*]如果你的硬件规格低于前期准备部分的最低配置,亦可尝试运行7B及1.5B参数模型,但输出质量可能受到影响。
[*]模型首次运行可能须耗费一定时间,特别是下载过程。模型运行之后,你可直接在终端中向其提问并获取输出。你可参考下图查看DeepSeek R1 8B模型的实际运行情况。

Ollama DeepSeek R1

[*]DeepSeek R1是一款推理模型,因此会先进行思考、而后开始生成答案。如上图所示,它在给出答案前会列出思考过程,具体细节请参阅  标签。
克隆并运行NodeJS后端

Ollama服务也可通过API访问。你可使用此API并构建基于NodeJS的后端层,由该层获取用户上传的PDF文件并从中提取文本内容。提取完成后,后端将通过Ollama API将文本导入DeepSeek R1模型以获取响应。最终响应结果将发送至客户端并展示给用户。

[*]使用此URL从GitHub克隆后端项目。这里推荐大家分叉该项目,而后克隆出自己的本地副本。
[*]克隆后,要运行此项目,请使用cd deepseek-ollama-backend转至项目根目录。
[*]在根目录内,使用npm install命令安装依赖项。安装完成后,即可使用npm start 命令运行本项目。项目核心为app.js文件,其代码内容如下所示:
const express = require('express');const multer = require('multer');const pdfParse = require('pdf-parse');const axios = require('axios');const fs = require('fs');const cors = require('cors');const app = express();app.use(cors());app.use(express.json());const upload = multer({    dest: 'uploads/',    fileFilter: (req, file, cb) => {      file.mimetype === 'application/pdf' ? cb(null, true) : cb(new Error('Only PDF files are allowed!'));    }}).single('pdfFile');app.post('/analyze-pdf', (req, res) => {    upload(req, res, async function(err) {      if (err) {            return res.status(400).json({ error: 'Upload error', details: err.message });      }      try {            if (!req.file) {                return res.status(400).json({ error: 'No PDF file uploaded' });            }            const dataBuffer = fs.readFileSync(req.file.path);            const data = await pdfParse(dataBuffer);            const pdfText = data.text;            fs.unlinkSync(req.file.path);            const response = await axios.post('http://127.0.0.1:11434/api/generate', {                model: "deepseek-r1:8b",                prompt: `Analyze this resume. Resume text is between two --- given ahead: ---${pdfText}---`,                stream: false            });            res.json({ success: true, message: 'Successfully connected to Ollama', ollamaResponse: response.data });      } catch (error) {            if (req.file && fs.existsSync(req.file.path)) {                fs.unlinkSync(req.file.path);            }            res.status(500).json({ error: 'Error processing PDF', details: error.message });      }    });});if (!fs.existsSync('uploads')) {    fs.mkdirSync('uploads');}const PORT = process.env.PORT || 3000;app.listen(PORT, () => {    console.log(`Server is running on port ${PORT}`);});

[*]1.
[*]2.
[*]3.
[*]4.
[*]5.
[*]6.
[*]7.
[*]8.
[*]9.
[*]10.
[*]11.
[*]12.
[*]13.
[*]14.
[*]15.
[*]16.
[*]17.
[*]18.
[*]19.
[*]20.
[*]21.
[*]22.
[*]23.
[*]24.
[*]25.
[*]26.
[*]27.
[*]28.
[*]29.
[*]30.
[*]31.
[*]32.
[*]33.
[*]34.
[*]35.
[*]36.
[*]37.
[*]38.
[*]39.
[*]40.
[*]41.
[*]42.
[*]43.
[*]44.
[*]45.
[*]46.
[*]47.
[*]48.
[*]49.
[*]50.
[*]51.
[*]52.
[*]53.
[*]54.
[*]55.
[*]56.
[*]57.






[*]客户端通过调用/analyze-pdfAPI端点与后端交互,此端点为POST类型。客户端将用户上传的pdf文件作为有效载荷发送至该API。
[*]服务器将此文件临时存储在uploads目录中,并提取文件中的文本。
[*]服务器随后使用Oolama的hocalhost API端点向DeepSeek R1传递提示词。
[*]DeepSeek R1分析简历内容并提供反馈,而后由服务器使用 res.json().将分析结果响应给客户端。
克隆并运行React用户界面

通过项目的用户界面上传简历,即可将内容发送至后端,而后向用户展示DeepSeek R1的分析结果。其中还将包含DeepSeek R1的思考过程,即内部思维链。

[*]首先,通过此GitHub URL分叉并克隆本项目。如果各位没有定制需求,也可直接克隆。
[*]克隆完成后,使用命令 cd deepseek-ollama-frontend转至项目根目录。
[*]在根目录下,使用npm install 命令安装必要依赖项。安装完成后,使用npm run dev命令启动本项目。
[*]示例React应用的main组件为ResumeAnalyzer,你可在选定的编辑器中打开并进行分析。
import './ResumeAnalyzer.css';import React, { useState } from 'react';import { Upload, Loader2 } from 'lucide-react';import AnalysisSection from './AnalysisSection';const ResumeAnalyzer = () => {const = useState(null);const = useState(false);const = useState(null);const = useState(null);const handleFileChange = (event) => {    const selectedFile = event.target.files?.;    if (selectedFile && selectedFile.type === 'application/pdf') {      setFile(selectedFile);      setError(null);    } else {      setError('Please upload a PDF file');      setFile(null);    }};const analyzePDF = async () => {    if (!file) return;    setLoading(true);    setError(null);    try {      const formData = new FormData();      formData.append('pdfFile', file);      const response = await fetch('http://localhost:3000/analyze-pdf', {      method: 'POST',      body: formData,      });      if (!response.ok) {      const errorData = await response.json();      throw new Error(errorData.details || 'Failed to analyze PDF');      }      const data = await response.json();      setFeedback(data);    } catch (err) {      setError(err.message || 'An error occurred');    } finally {      setLoading(false);    }};return (                  Resume Analyzer

                                                                  Upload Resume (PDF)                        {file && (                              Selected: {file.name}            
            )}         
      
      {error && (                      {error}         
      )}                  {loading ? (                                        Analyzing Resume...                      ) : (            'Analyze Resume'          )}                {feedback && !loading && (                      Analysis Results

            {feedback.ollamaResponse &&                           }         
      )}      
   
);};export default ResumeAnalyzer;

[*]1.
[*]2.
[*]3.
[*]4.
[*]5.
[*]6.
[*]7.
[*]8.
[*]9.
[*]10.
[*]11.
[*]12.
[*]13.
[*]14.
[*]15.
[*]16.
[*]17.
[*]18.
[*]19.
[*]20.
[*]21.
[*]22.
[*]23.
[*]24.
[*]25.
[*]26.
[*]27.
[*]28.
[*]29.
[*]30.
[*]31.
[*]32.
[*]33.
[*]34.
[*]35.
[*]36.
[*]37.
[*]38.
[*]39.
[*]40.
[*]41.
[*]42.
[*]43.
[*]44.
[*]45.
[*]46.
[*]47.
[*]48.
[*]49.
[*]50.
[*]51.
[*]52.
[*]53.
[*]54.
[*]55.
[*]56.
[*]57.
[*]58.
[*]59.
[*]60.
[*]61.
[*]62.
[*]63.
[*]64.
[*]65.
[*]66.
[*]67.
[*]68.
[*]69.
[*]70.
[*]71.
[*]72.
[*]73.
[*]74.
[*]75.
[*]76.
[*]77.
[*]78.
[*]79.
[*]80.
[*]81.
[*]82.
[*]83.
[*]84.
[*]85.
[*]86.
[*]87.
[*]88.
[*]89.
[*]90.
[*]91.
[*]92.
[*]93.
[*]94.
[*]95.
[*]96.
[*]97.
[*]98.
[*]99.
[*]100.
[*]101.
[*]102.
[*]103.
[*]104.
[*]105.
[*]106.
[*]107.
[*]108.
[*]109.
[*]110.
[*]111.
[*]112.
[*]113.
[*]114.
[*]115.






[*]此组件负责为用户提供输入字段以上传文件。
[*]使用API端点将上传的文件发送至服务器。
[*]服务器的响应结果分为两部分——模型的内部思维链与模型的实际响应内容。
[*]其中 AnalysisSection 组件用于显示DeepSeek R1的实际响应结果,ExpandableSection组件则用于显示模型的内部思维过程。
在浏览器中导航至URL以加载示例应用。之后即可上传任意简历并观察DeepSeek R1生成的分析结果。

Resume Analyzer截屏
总结

DeepSeek R1让我们拥有了以纯本地方式构建生成式AI驱动应用的能力,并可根据实际需求进行灵活自定义。
在本文中,我们使用DeepSeek R1、Node.js与React构建起一款具备实用价值的应用程序,可完全离线使用并依托AI实现简历分析。欢迎大家按照本文分享的流程探索更多用例和设计思路。
原文标题:Building a Full-Stack Resume Screening Application With AI,作者:Anujkumarsinh Donvir
页: [1]
查看完整版本: 如何运用DeepSeek R1构建一款全栈简历筛选应用