
课程简介
过去的一年我们见证了大语言模型对这个世界的冲击,ChatGPT、Claude、Grok 等模型在不同的行业领域实现了广泛的应用,从简化日常沟通、解决编程问题,到加速科研创新、推动教育变革,乃至参与艺术创作与文化传播,大语言模型正成为推动社会进步的重要力量。随着这些模型能力的不断提升,我们也开始思考:如何更好地理解它们的工作原理?如何评估它们的社会影响?又如何在确保安全、尊重隐私的前提下最大化它们的积极价值?
「TechX 自然语言处理与大语言模型」将会为你揭开表象,探究自然语言处理技术在不同领域的应用及背后的技术支持。你将会深入了解工业界广泛使用的框架(如自回归模型等),以及现在面向用户的一些产品技术分析。你将在学术领袖的带领下一起探索自然语言处理技术在诸如社会科学、教育、医疗等其他领域的应用,运用学到的知识对自然语言处理最新技术进行讨论、研究。
当前学费:19,270 元
常规申请学费:20,410 元
课程预计成果
基于理论的学习与研究,完成并展出你的一份科研海报或综述写作;或制作一个属于你的聊天机器人,或一个基于大模型的 Agent 等结合自然语言处理的应用。
课程内容
词态学、语法、语义等语言学基础;词嵌入;RNN、语言模型、GRU、LSTM;Encoder-Decoder 构架;Seq2seq、注意力机制、Self-Attention、Transformer;预训练模型;大语言模型
前置要求
线性代数,微积分,统计基础,熟悉 Python 语法,有机器学习基础
(注:预习阶段导师与学术领袖将帮助你完成前置要求的学习)
导师简介
上海科技大学在读计算机博士,研究方向为自然语言处理,具体研究知识表示及符号化知识与神经网络的融合,信息抽取以及预训练语言模型中的结构化知识。多篇科研成果发表在顶级学术会议 EMNLP 2020,2021,2022,EACL 2023,findings of EMNLP 2020 以及 CoNLL 2019 上。曾参与发明多项技术专利,并且在阿里DAMO Academy 进行科研实习。期间负责达摩院序列理解框架Adaseq的实体分类部分,是Adaseq的主要贡献者之一。曾经连续担任三年Shanghaitech Artificial Intelligence 课程的助教,并且有丰富的Hackathon以及科创比赛经验,曾获挑战杯 2019,Saike 2017 Hackathon 的一等奖。
加州大学圣地亚哥分校在读计算机博士,本科毕业于复旦大学计算机系,研究方向为 Digital Humanities 和自然语言处理,研究成果在 EMNLP CoNLL ICLR ACL 均有收录。对哲学有极其浓厚的兴趣(本科专业曾为哲学)。曾在 FaceBook,NVIDIA 担任研究员。
学术助教

姜楠
2023
届
加州大学圣地亚哥分校
计算机科学/生物信息学专业;参与开发中国扶贫基金会的微信小程序Hungry24且最终拥有注册用户 17800 名

沈阳艺
2023
届
斯坦福大学
符号系统专业;国际语言学奥赛中国区第一名

丁瑞达
2020、2021
届
牛津大学计算机科与哲学双专业
曾与牛津教授研究注意力深度模型中的解释与鲁棒性的保障