- 内测地址:https://www.educhat.top/
- 内测申请:请邮件[email protected],以“EduChat内测申请+单位”作为邮件标题,邮件内容中写明用途。
- 公测地址:https://educhat.xiaoi.com/
注意:使用前按照模型介绍页面中的使用方法部分解密
- educhat-sft-002-13b-baichuan:在educhat-base-002-13b-baichuan基础上,使用我们构建的教育领域多技能数据微调后得到
- educhat-base-002-13b-baichuan:使用educhat-sft-002-data-osm数据训练得到
- educhat-sft-002-7b:在educhat-base-002-7b基础上,使用我们构建的教育领域多技能数据微调后得到
- educhat-base-002-7b:使用educhat-sft-002-data-osm数据训练得到
- educhat-sft-002-13b:训练方法与educhat-sft-002-7b相同,模型大小升级为13B
- educhat-base-002-13b:训练方法与educhat-base-002-7b相同,模型大小升级为13B
- educhat-sft-002-data-osm: 混合多个开源中英指令、对话数据,并去重后得到,约400w
数据质量对于模型性能至关重要,为此,我们开源了数据清洗工具CleanTool(可选使用GPU Turbo Speed Up),包括数据去重,低质量数据删除等功能,未来将继续不断完善。
EduChat: A Large-Scale Language Model-based Chatbot System for Intelligent Education
链接:https://arxiv.org/abs/2308.02773
如果使用本项目的代码、数据或模型,请引用本项目论文:
@article{educhat2023,
title={EduChat: A Large-Scale Language Model-based Chatbot System for Intelligent Education},
author={Yuhao Dan, Zhikai Lei, Yiyang Gu, Yong Li, Jianghao Yin, Jiaju Lin, Linhao Ye, Zhiyan Tie, Yougen Zhou, Yilei Wang, Aimin Zhou, Ze Zhou, Qin Chen, Jie Zhou, Liang He, Xipeng Qiu},
journal={arXiv preprint arXiv:2308.02773},
year={2023}
}
教育是影响人的身心发展的社会实践活动,旨在把人所固有的或潜在的素质自内而外激发出来。因此,必须贯彻“以人为本”的教育理念,重点关注人的个性化、引导式、身心全面发展。为了更好地助力”以人为本“的教育,华东师范大学计算机科学与技术学院的EduNLP团队探索了针对教育垂直领域的对话大模型EduChat相关项目研发。该项目主要研究以预训练大模型为基底的教育对话大模型相关技术,融合多样化的教育垂直领域数据,辅以指令微调、价值观对齐等方法,提供教育场景下自动出题、作业批改、情感支持、课程辅导、高考咨询等丰富功能,服务于广大老师、学生和家长群体,助力实现因材施教、公平公正、富有温度的智能教育。
基础能力:
- 下载本仓库内容至本地/远程服务器
git clone https://github.com/icalk-nlp/EduChat.git
cd EduChat
- 创建conda环境
conda create --name educhat python=3.8
conda activate educhat
- 安装依赖
# 首先安装pytorch,安装方法请自行百度。
# 然后安装最新版本的transformers
pip install transformers
使用EduChat时,sft模型的输入格式为system_prompt + query。根据所需功能不同从以下的system_prompt中选择。base模型在使用时不需要添加system_prompt。
开放问答
system_prompt = \
"<|system|>"'''你是一个人工智能助手,名字叫EduChat。
- EduChat是一个由华东师范大学开发的对话式语言模型。
EduChat的工具
- Web search: Disable.
- Calculators: Disable.
EduChat的能力
- Inner Thought: Disable.
对话主题
- General: Enable.
- Psychology: Disable.
- Socrates: Disable.'''"</s>"
启发式教学
system_prompt = \
"<|system|>"'''你是一个人工智能助手,名字叫EduChat。
- EduChat是一个由华东师范大学开发的对话式语言模型。
EduChat的工具
- Web search: Disable.
- Calculators: Disable.
EduChat的能力
- Inner Thought: Disable.
对话主题
- General: Disable.
- Psychology: Disable.
- Socrates: Enable.'''"</s>"
情感支持
system_prompt = \
"<|system|>"'''你是一个人工智能助手,名字叫EduChat。
- EduChat是一个由华东师范大学开发的对话式语言模型。
EduChat的工具
- Web search: Disable.
- Calculators: Disable.
EduChat的能力
- Inner Thought: Disable.
对话主题
- General: Disable.
- Psychology: Enable.
- Socrates: Disable.'''"</s>"
情感支持(with InnerThought)
system_prompt = \
"<|system|>"'''你是一个人工智能助手,名字叫EduChat。
- EduChat是一个由华东师范大学开发的对话式语言模型。
EduChat的工具
- Web search: Disable.
- Calculators: Disable.
EduChat的能力
- Inner Thought: Enable.
对话主题
- General: Disable.
- Psychology: Enable.
- Socrates: Disable.'''"</s>"
以下是一个简单的调用educhat-sft-002-7b
生成对话的示例代码,可在单张A100/A800或CPU运行,使用FP16精度时约占用15GB显存:
>>> from transformers import LlamaForCausalLM, LlamaTokenizer
>>> tokenizer = LlamaTokenizer.from_pretrained("ecnu-icalk/educhat-sft-002-7b")
>>> model = LlamaForCausalLM.from_pretrained("ecnu-icalk/educhat-sft-002-7b",torch_dtype=torch.float16,).half().cuda()
>>> model = model.eval()
>>> query = system_prompt + "<|prompter|>你好</s><|assistant|>"
>>> inputs = tokenizer(query, return_tensors="pt", padding=True).to(0)
>>> outputs = model.generate(**inputs, do_sample=True, temperature=0.7, top_p=0.8, repetition_penalty=1.02, max_new_tokens=256)
>>> response = tokenizer.decode(outputs[0][inputs.input_ids.shape[1]:], skip_special_tokens=True)
>>> print(response)
你好!我是EduChat,有什么我可以帮助你的吗?
>>> query = query + response + "</s><|prompter|>:给我推荐几本心理相关的书籍</s><|assistant|>:"
>>> inputs = tokenizer(query, return_tensors="pt", padding=True).to(0)
>>> outputs = model.generate(**inputs, do_sample=True, temperature=0.7, top_p=0.8, repetition_penalty=1.02, max_new_tokens=256)
>>> response = tokenizer.decode(outputs[0][inputs.input_ids.shape[1]:], skip_special_tokens=True)
>>> print(response)
当然,以下是一些关于心理学的经典书籍:
1.《人性的弱点》(Dale Carnegie):这本书是一本经典的人际关系指南,它介绍了如何与人相处、如何影响他人以及如何建立良好的人际关系。
2.《心理学与生活》(Richard J. Gerrig):这本书是一本介绍心理学的入门读物,它涵盖了各种主题,包括认知、情感、人格和社会心理学。
3.《情绪智商》(Daniel Goleman):这本书介绍了情绪智商的概念,并探讨了情绪智商如何影响我们的生活和工作。
4.《人性的弱点2》(Dale Carnegie):这本书是《人性的弱点》的续集,它提供了更多的技巧和策略,帮助读者更好地与人相处。
5.《心理学导论》(David G. Myers):这本书是一本广泛使用的心理学教材,它涵盖了各种主题,包括感知、记忆、思维、情感和人格。
希望这些书籍能够帮助你更深入地了解心理学。
Gradio
你可以运行本仓库中的demo/educhat_gradio.py:
python educhat_gradio.py --model_path /path/to/educhat_model \
--top_k 50 \
--do_sample True \
--max_new_tokens 512
启动demo后,你可以将链接分享给朋友,通过网页与EduChat交互
你可以运行仓库中的demo/educhat_api.py来对外提供一个简单的api服务
python educhat_api.py
启动api服务后,你可以通过网络调用来与EduChat交互
## curl EduChat
curl -X POST "http://localhost:19324" \
-H 'Content-Type: application/json' \
-d '{"prompt": "你是谁?"}'
首次调用,你会得到一个api服务返回的uid
{"response":"\n<|Worm|>: 你好,有什么我可以帮助你的吗?","history":[["你好","\n<|Worm|>: 你好,有什么我可以帮助你的吗?"]],"status":200,"time":"2023-04-28 09:43:41","uid":"10973cfc-85d4-4b7b-a56a-238f98689d47"}
你可以在后续的对话中填入该uid来和EduChat进行多轮对话
## curl EduChat multi-round
curl -X POST "http://localhost:19324" \
-H 'Content-Type: application/json' \
-d '{"prompt": "你是谁?", "uid":"10973cfc-85d4-4b7b-a56a-238f98689d47"}'
从EduChat-001到EduChat-002的迭代过程中,我们逐步增强了它的中文能力、忠实度、安全度和有帮助性方面的表现。然而,EduChat-002仍然是一个早期模型,我们的旅程也才刚刚开始。在未来,我们将持续投入对基础模型的研究,并持续推出更为强大的EduChat版本,以丰富全球教育大模型生态,加速全球教育信息化进程。
- 逻辑推理:逻辑推理能力是衡量大模型性能的重要指标,我们计划通过增大语言模型基座、增强特定训练数据等手段强化EduChat的逻辑推理能力;
- 个性化辅导:我们期望的EduChat应当是千人千面的,未来我们希望能够给每个人一个独一无二的EduChat,它将在与你的交互中持续学习,伴随你的成长而成长,成为你的专属助手。
- 工具调用:语言模型本身具有明显的局限性,例如符号运算能力弱,我们计划在后续升级EduChat,使其具备调用外部工具能力,帮助其更好地进行生成。
本项目所含代码采用Apache 2.0协议,数据采用CC BY-NC 4.0协议。
尽管我们对EduChat进行了优化,但仍存在以下问题,需要进行改进:
-
当涉及到事实性指令时,可能会产生错误的回答,与实际事实相悖。
-
模型回复可能存在偏见,有可能生成危险性言论。
-
在某些场景中,比如推理、代码、多轮对话等方面,模型的能力仍有待提高。
鉴于上述模型的局限性,我们要求开发者仅将我们开源的代码、数据、模型以及由该项目生成的衍生物用于研究目的,禁止用于商业用途,以及其他可能对社会带来危害的用途。
本项目仅供研究目的使用,项目开发者对于使用本项目(包括但不限于数据、模型、代码等)所导致的任何危害或损失不承担责任。详情请参考该免责声明。
- LLaMa,Baichuan: EduChat是基于LLaMA和Baichuan作为基座
- Open Assistant: EduChat参考OA构建模型训练代码
- 华东师范大学出版社:数据支持
- 竹蜻蜓数据科技(浙江)有限公司: 开发支持
- 邱锡鹏教授: 项目顾问