一、崗位定位
聚焦大模型(LLM)在實(shí)際業(yè)務(wù)場景的應(yīng)用落地,負(fù)責(zé)從 “模型選型 - 適配優(yōu)化 - 算法開發(fā) - 效果迭代” 全流程設(shè)計(jì),解決大模型在對話交互、內(nèi)容生成、知識檢索、多模態(tài)融合等場景的工程化與效果問題,支撐業(yè)務(wù)實(shí)現(xiàn) “AI 賦能效率提升” 目標(biāo)。
二、工作內(nèi)容1. 業(yè)務(wù)需求拆解與算法方案設(shè)計(jì)
- 對接產(chǎn)品 / 業(yè)務(wù)團(tuán)隊(duì),拆解大模型應(yīng)用場景需求,輸出技術(shù)可行性方案,明確算法選型(如基礎(chǔ)模型選擇、是否需微調(diào)、是否結(jié)合 RAG 等);
- 評估業(yè)務(wù)場景約束(如響應(yīng)延遲≤500ms、成本控制≤0.1 元 / 千次調(diào)用、準(zhǔn)確率≥90%),平衡大模型效果、性能與成本,制定分階段落地計(jì)劃(如 MVP 版用提示工程快速驗(yàn)證,迭代版加微調(diào)優(yōu)化)。
2. 大模型適配與優(yōu)化(核心)
- 模型選型與輕量化:基于業(yè)務(wù)場景選擇適配基礎(chǔ)模型(如 GPT-4o、LLaMA 3、文心一言、通義千問等),針對部署環(huán)境(云服務(wù)器 / 邊緣端)進(jìn)行模型壓縮優(yōu)化,包括量化(INT8/INT4)、剪枝、蒸餾,確保在低資源環(huán)境下滿足性能要求;
- 參數(shù)高效微調(diào):針對業(yè)務(wù)私有數(shù)據(jù)(如企業(yè)知識庫、行業(yè)專屬語料),設(shè)計(jì)微調(diào)方案,熟練使用 LoRA/QLoRA/Adapter 等方法,解決小樣本場景下模型泛化能力不足問題(如將金融領(lǐng)域問答準(zhǔn)確率從 82% 提升至 93%);
- 提示工程設(shè)計(jì):優(yōu)化提示詞策略,包括 Few-shot 示例、Chain-of-Thought(思維鏈)、Prompt Tuning,提升大模型在特定任務(wù)(如邏輯推理、格式生成、意圖識別)的效果,降低微調(diào)成本。
3. 核心應(yīng)用算法開發(fā)
- 檢索增強(qiáng)(RAG)系統(tǒng)構(gòu)建:設(shè)計(jì)并實(shí)現(xiàn) RAG 全流程算法,包括文檔解析(PDF/Word 結(jié)構(gòu)化處理)、向量嵌入(如使用 Sentence-BERT、Qwen-Embedding)、向量數(shù)據(jù)庫選型與優(yōu)化(如 Milvus、Pinecone)、檢索策略(如混合檢索:語義檢索 + 關(guān)鍵詞檢索),解決大模型 “知識過時”“幻覺” 問題;
- 多模態(tài)融合算法開發(fā):針對圖文、音視頻場景,開發(fā)大模型與多模態(tài)數(shù)據(jù)的適配算法,如結(jié)合 CLIP 模型實(shí)現(xiàn) “文本 - 圖像” 跨模態(tài)檢索,或基于 Whisper + 大模型實(shí)現(xiàn) “語音輸入 - 文本理解 - 語音輸出” 端到端對話;
- 對話系統(tǒng)優(yōu)化:設(shè)計(jì)對話狀態(tài)管理(DST)、上下文理解算法,解決多輪對話中的上下文遺忘、意圖切換問題,支持個性化對話(如記憶用戶偏好、歷史交互記錄)。
4. 效果評估與迭代
- 建立大模型應(yīng)用效果評估體系,包括客觀指標(biāo)(準(zhǔn)確率、召回率、BLEU、ROUGE)與主觀指標(biāo)(用戶滿意度、內(nèi)容相關(guān)性),搭建自動化評估平臺(如基于 LangSmith、自定義評測數(shù)據(jù)集);
- 分析線上效果數(shù)據(jù)(如用戶反饋、錯誤案例),定位問題根源(如提示詞設(shè)計(jì)不足、微調(diào)數(shù)據(jù)偏差、檢索召回率低),迭代優(yōu)化算法(如補(bǔ)充行業(yè)負(fù)樣本、調(diào)整向量數(shù)據(jù)庫索引參數(shù));
- 跟蹤大模型領(lǐng)域技術(shù)進(jìn)展(如最新微調(diào)方法、高效推理框架),將新技術(shù)應(yīng)用于業(yè)務(wù)(如用 vLLM 框架將模型推理吞吐量提升 3 倍)。
5. 工程化落地與協(xié)作
- 與工程團(tuán)隊(duì)協(xié)作,將算法方案轉(zhuǎn)化為可落地的服務(wù),包括模型服務(wù)化(如用 FastAPI/Grpc 封裝 API、Docker 容器化部署)、推理引擎集成(如 TensorRT、ONNX Runtime),確保高并發(fā)場景下的穩(wěn)定性;
- 輸出技術(shù)文檔,包括算法設(shè)計(jì)文檔、微調(diào)流程手冊、API 調(diào)用規(guī)范,配合測試團(tuán)隊(duì)制定測試用例,保障上線質(zhì)量;
- 沉淀算法資產(chǎn),如通用提示詞模板、微調(diào)腳本、RAG 組件庫,提升團(tuán)隊(duì)大模型應(yīng)用效率。
三、崗位要求1. 學(xué)歷與專業(yè)
- 本科及以上學(xué)歷,計(jì)算機(jī)科學(xué)與技術(shù)、軟件工程、人工智能、數(shù)學(xué)與應(yīng)用數(shù)學(xué)等相關(guān)專業(yè)。
2. 工作經(jīng)驗(yàn)
- 3 年及以上大模型應(yīng)用 / 自然語言處理(NLP)算法開發(fā)經(jīng)驗(yàn),至少完整參與過 2 個大模型應(yīng)用項(xiàng)目的全生命周期(需求→開發(fā)→上線→迭代);
- 有以下場景經(jīng)驗(yàn)者優(yōu)先:RAG 系統(tǒng)落地(如企業(yè)知識庫問答)、大模型微調(diào)(LoRA/QLoRA)、多模態(tài)應(yīng)用(圖文 / 語音 + 大模型)、對話機(jī)器人開發(fā)。
3. 技術(shù)能力(核心)
- 編程語言與框架:熟練掌握 Python,精通 PyTorch/TensorFlow 深度學(xué)習(xí)框架,能獨(dú)立編寫模型微調(diào)、推理代碼;
-
大模型技術(shù)棧:
- 熟悉主流大模型(GPT 系列、LLaMA 系列、國產(chǎn)大模型如文心一言 / 通義千問)的特性與應(yīng)用場景,能根據(jù)業(yè)務(wù)選型;
- 掌握參數(shù)高效微調(diào)技術(shù)(LoRA/QLoRA/Adapter)、提示工程(Few-shot、CoT、Prompt Tuning)、模型壓縮(量化、剪枝、蒸餾);
- 理解 RAG 核心技術(shù),包括向量嵌入模型(Sentence-BERT、Qwen-Embedding)、向量數(shù)據(jù)庫(Milvus、Pinecone、FAISS)、檢索策略優(yōu)化;
- 工具與工程能力:熟悉大模型開發(fā)工具鏈(Hugging Face Transformers/Datasets、LangChain、LangSmith),具備模型服務(wù)化經(jīng)驗(yàn)(如 FastAPI、Docker、K8s 基礎(chǔ)),能使用 vLLM/TensorRT 加速推理;
- 基礎(chǔ)理論:扎實(shí)的 NLP 基礎(chǔ)(如分詞、語義理解、序列生成)、機(jī)器學(xué)習(xí)基礎(chǔ)(如分類、回歸、優(yōu)化算法),了解大模型底層原理(如 Transformer 架構(gòu)、注意力機(jī)制)者優(yōu)先。
4. 業(yè)務(wù)與軟技能
- 業(yè)務(wù)理解:能快速理解不同行業(yè)(如金融、電商、教育)的大模型應(yīng)用場景,將業(yè)務(wù)需求轉(zhuǎn)化為清晰的算法方案,平衡效果與成本;
- 問題解決:具備較強(qiáng)的故障排查能力,能快速定位線上問題(如模型響應(yīng)慢、效果波動),并提出優(yōu)化方案;
- 協(xié)作溝通:能與產(chǎn)品、工程、測試團(tuán)隊(duì)高效協(xié)作,清晰表達(dá)技術(shù)方案與風(fēng)險,推動項(xiàng)目落地;
- 持續(xù)學(xué)習(xí):關(guān)注大模型領(lǐng)域前沿技術(shù)(如最新模型、優(yōu)化方法、應(yīng)用場景),能主動將新技術(shù)融入工作,提升業(yè)務(wù)價值。
5. 加分項(xiàng)
- 有開源大模型應(yīng)用項(xiàng)目貢獻(xiàn)經(jīng)驗(yàn)(如 LangChain 插件開發(fā)、LoRA 微調(diào)工具優(yōu)化);
- 曾主導(dǎo)過日均調(diào)用量 10 萬 + 的大模型應(yīng)用項(xiàng)目,具備高并發(fā)場景下的算法優(yōu)化經(jīng)驗(yàn);
- 熟悉多模態(tài)大模型(如 Gemini、GPT-4o Vision、通義千問 - V)的應(yīng)用開發(fā)。