崗位職責(zé):
1、核心NLP算法研發(fā)與創(chuàng)新:
負(fù)責(zé)利用前沿的NLP技術(shù),從海量的非結(jié)構(gòu)化水利行業(yè)文檔(如調(diào)度規(guī)程、應(yīng)急預(yù)案、工程報(bào)告等)中進(jìn)行精準(zhǔn)、高效的信息抽?。▽?shí)體、關(guān)系、事件等)。
主導(dǎo)水利行業(yè)知識(shí)圖譜的設(shè)計(jì)與構(gòu)建流程,并基于圖譜研發(fā)智能問答、智能檢索等應(yīng)用。
負(fù)責(zé)水利領(lǐng)域大語言模型(LLM)的微調(diào)與應(yīng)用,主導(dǎo)檢索增強(qiáng)生成(RAG)等技術(shù)的落地。
2、打造水利行業(yè)決策智能體 (Agent):
核心任務(wù):設(shè)計(jì)和研發(fā)基于大語言模型的決策智能體(Agent),使其能夠自主理解復(fù)雜的業(yè)務(wù)指令(例如:“評(píng)估XX流域未來24小時(shí)的防洪壓力并生成報(bào)告”)。
負(fù)責(zé)智能體的任務(wù)規(guī)劃(Planning)、工具調(diào)用(Tool Use)核心模塊的研發(fā),為智能體接入水文模型、數(shù)據(jù)庫、知識(shí)圖譜等外部工具API。
3、模型部署與跨平臺(tái)性能優(yōu)化:
負(fù)責(zé)將NLP模型高效、穩(wěn)定地部署到多樣化的云端及國(guó)產(chǎn)化服務(wù)器環(huán)境中。
深度運(yùn)用NVIDIA TensorRT進(jìn)行GPU極致優(yōu)化,并熟練掌握華為CANN、海光DTK等國(guó)產(chǎn)化硬件平臺(tái)的專屬加速工具鏈,實(shí)現(xiàn)模型的高效推理。
針對(duì)不同硬件平臺(tái)的特性,運(yùn)用模型量化、算子融合、編譯優(yōu)化等技術(shù)進(jìn)行深度性能調(diào)優(yōu),解決模型在異構(gòu)硬件上的部署難題。
4、算法服務(wù)化與工程落地:
基于C++/Python將優(yōu)化后的模型封裝成高性能、穩(wěn)定可靠的SDK或API服務(wù)。
負(fù)責(zé)算法服務(wù)在不同操作系統(tǒng)(如CentOS, 麒麟OS等)或硬件架構(gòu)(X86、ARM)上的部署、測(cè)試、監(jiān)控和持續(xù)迭代。
撰寫高質(zhì)量的技術(shù)文檔,分享研究成果與工程經(jīng)驗(yàn)。
任職要求:
1、學(xué)歷與專業(yè)背景:
計(jì)算機(jī)、人工智能、自動(dòng)化、電子信息、數(shù)學(xué)等相關(guān)專業(yè)碩士及以上學(xué)歷。
具備水利工程、水文水資源等交叉學(xué)科背景者優(yōu)先。
核心NLP算法能力 (必須項(xiàng)):
5年以上NLP算法研發(fā)和項(xiàng)目落地經(jīng)驗(yàn),在信息抽取、智能問答、知識(shí)圖譜等領(lǐng)域有深厚的技術(shù)積累和成功案例。
精通Transformer架構(gòu),并熟練使用PyTorch/TensorFlow及Hugging Face生態(tài)進(jìn)行復(fù)雜模型的訓(xùn)練與開發(fā)。
具備豐富的大語言模型(LLM)微調(diào)和應(yīng)用經(jīng)驗(yàn),深刻理解RAG、Agent等技術(shù)范式。
2、模型部署與優(yōu)化能力 (核心要求):
精通C/C++編程,熟悉多線程、內(nèi)存管理和性能分析,具備底層算子(Operator)優(yōu)化或開發(fā)能力。
具備在國(guó)產(chǎn)AI硬件上的部署優(yōu)化經(jīng)驗(yàn),并熟悉其對(duì)應(yīng)的軟件棧和加速引擎(如CANN、DTK)。
精通至少一種主流推理引擎(TensorRT為必備),并熟悉ONNX生態(tài),有成功的模型轉(zhuǎn)換和加速經(jīng)驗(yàn)。
3、綜合素質(zhì):
具備優(yōu)秀的系統(tǒng)設(shè)計(jì)能力和抽象思維,能夠?qū)?fù)雜的業(yè)務(wù)需求解構(gòu)成清晰的技術(shù)方案。
擁有強(qiáng)烈的技術(shù)熱情和owner意識(shí),能主動(dòng)追蹤并實(shí)踐AI部署與優(yōu)化領(lǐng)域的前沿技術(shù)。
具備出色的溝通能力和團(tuán)隊(duì)協(xié)作精神。
4、加分項(xiàng)
有ARM架構(gòu)服務(wù)器的部署優(yōu)化經(jīng)驗(yàn)者優(yōu)先。
熟悉Triton Inference Server、VLLM等大模型服務(wù)框架者。
在相關(guān)領(lǐng)域的頂級(jí)會(huì)議、期刊上發(fā)表過論文或有知名開源項(xiàng)目貢獻(xiàn)者。