EmoLLM 是一系列能够支持 理解用户-支持用户-帮助用户 心理健康辅导链路的心理健康大模型,由 LLM
指令微调而来,欢迎大家star~⭐⭐。目前已经开源的 LLM
微调配置如下:
模型 | 类型 | 链接 | 模型链接 |
---|---|---|---|
InternLM2_5_7B_chat | QLORA | internlm2_5_chat_7b_qlora_oasst1_e3.py | ModelScope |
InternLM2_7B_chat | QLORA | internlm2_7b_chat_qlora_e3.py | ModelScope |
InternLM2_7B_chat | 全量微调 | internlm2_chat_7b_full.py | OpenXLab |
InternLM2_7B_base | QLORA | internlm2_7b_base_qlora_e10_M_1e4_32_64.py | OpenXLab, ModelScope |
InternLM2_1_8B_chat | 全量微调 | internlm2_1_8b_full_alpaca_e3.py | OpenXLab, ModelScope |
InternLM2_20B_chat | LORA | internlm2_20b_chat_lora_alpaca_e3.py | |
Qwen_7b_chat | QLORA | qwen_7b_chat_qlora_e3.py | |
Qwen1_5-0_5B-Chat | 全量微调 | qwen1_5_0_5_B_full.py | ModelScope |
Baichuan2_13B_chat | QLORA | baichuan2_13b_chat_qlora_alpaca_e3.py | |
ChatGLM3_6B | LORA | chatglm3_6b_lora_alpaca_e3.py | |
DeepSeek MoE_16B_chat | QLORA | deepseek_moe_16b_chat_qlora_oasst1_e3.py | |
Mixtral 8x7B_instruct | QLORA | mixtral_8x7b_instruct_qlora_oasst1_e3.py | |
LLaMA3_8b_instruct | QLORA | aiwei_llama3_8b_instruct_qlora_e3.py | OpenXLab, ModelScope |
LLaMA3_8b_instruct | QLORA | llama3_8b_instruct_qlora_alpaca_e3_M_ruozhi_scM.py | OpenXLab, ModelScope |
…… | …… | …… | …… |
欢迎大家为本项目做出贡献~
心理健康大模型(Mental Health Grand Model)是一个综合性的概念,它旨在全面理解和促进个体、群体乃至整个社会的心理健康状态。这个模型通常包含以下几个关键组成部分:
- 认知因素:涉及个体的思维模式、信念系统、认知偏差以及解决问题的能力。认知因素对心理健康有重要影响,因为它们影响个体如何解释和应对生活中的事件。
- 情感因素:包括情绪调节、情感表达和情感体验。情感健康是心理健康的重要组成部分,涉及个体如何管理和表达自己的情感,以及如何从负面情绪中恢复。
- 行为因素:涉及个体的行为模式、习惯和应对策略。这包括应对压力的技巧、社交技能以及自我效能感,即个体对自己能力的信心。
- 社会环境:包括家庭、工作、社区和文化背景等外部因素,这些因素对个体的心理健康有着直接和间接的影响。
- 生理健康:身体健康与心理健康紧密相关。良好的身体健康可以促进心理健康,反之亦然。
- 心理韧性:指个体在面对逆境时的恢复力和适应能力。心理韧性强的人更能够从挑战中恢复,并从中学习和成长。
- 预防和干预措施:心理健康大模型还包括预防心理问题和促进心理健康的策略,如心理教育、心理咨询、心理治疗和社会支持系统。
- 评估和诊断工具:为了有效促进心理健康,需要有科学的工具来评估个体的心理状态,以及诊断可能存在的心理问题。
- 【2024.07】欢迎大家使用稳定版 EmoLLM V2.0 进行日常使用和学术研究,模型权重链接:OpenXLab。
- 【2024.07】新增基于InternLM2_5_7B_chat微调配置、模型文件发布在 ModelScope。
- 【2024.06】新增基于LLaMA-FactoryGLM4-9B-chat微调指南、新增基于swift的微调指南、论文ESC-Eval: Evaluating Emotion Support Conversations in Large Language Models引用了EmoLLM且EmoLLM取得了较好的效果。
- 【2024.05.28】EmoLLM使用的多轮对话数据集CPsyCounD和专业评测方法已公开,详见2024 ACL findings《CPsyCoun: A Report-based Multi-turn Dialogue Reconstruction and Evaluation Framework for Chinese Psychological Counseling》!
- 【2024.05.08】EmoLLM爹系男友阅览体验版上线 1. 百度AppBuilder 2. OpenXLab, 欢迎点赞收藏
- 【2024.05.07】增量预训练指南
- 【2024.05.04】基于LLaMA3_8b_instruct的EmoLLM3.0 OpenXLab Demo上线(重启链接), LLAMA3微调指南更新,在OpenXLab和ModelScope平台发布LLaMA3_8b_instruct-8B QLoRA微调模型 EmoLLM3.0权重
- 【2024.04.20】LLAMA3微调指南及基于LLaMA3_8b_instruct的艾薇开源
- 【2023.04.14】新增快速开始和保姆级教程BabyEmoLLM
- 【2024.04.02】在 Huggingface 上传老母亲心理咨询师
- 【2024.03.25】在百度飞桨平台发布爹系男友心理咨询师
- 【2024.03.24】在OpenXLab和ModelScope平台发布InternLM2-Base-7B QLoRA微调模型, 具体请查看InternLM2-Base-7B QLoRA
- 【2024.03.12】在百度飞桨平台发布艾薇
- 【2024.03.11】 EmoLLM V2.0 相比 EmoLLM V1.0 全面提升,已超越 Role-playing ChatGPT 在心理咨询任务上的能力!点击体验EmoLLM V2.0,更新数据集统计及详细信息、路线图
- 【2024.03.09】 新增并发功能加速 QA 对生成、RAG pipeline
- 【2024.03.03】 基于InternLM2-7B-chat全量微调版本EmoLLM V2.0开源,需要两块A100*80G,更新专业评估,详见evaluate,更新基于PaddleOCR的PDF转txt工具脚本,详见scripts
- 【2024.02.29】更新客观评估计算,详见evaluate,更新一系列数据集,详见datasets
- 【2024.02.27】更新英文readme和一系列数据集(舔狗和单轮对话)
- 【2024.02.23】推出基于InternLM2_7B_chat_qlora的
温柔御姐心理医生艾薇
,点击获取模型权重,配置文件,在线体验链接 - 【2024.02.23】更新若干微调配置,新增 data_pro.json(数量更多、场景更全、更丰富)和 aiwei.json(温柔御姐角色扮演专用,带有Emoji表情),即将推出
温柔御姐心理医生艾薇
- 【2024.02.18】 基于Qwen1_5-0_5B-Chat全量微调版本开源,算力有限的道友可以玩起来~
查看更多
- 【2024.02.06】 EmoLLM在Openxlab 平台下载量高达18.7k,欢迎大家体验!
- 【2024.02.05】 项目荣获公众号NLP工程化推文宣传推文链接,为博主推广一波,欢迎大家关注!!🥳🥳
- 【2024.02.03】 项目宣传视频完成 😊
- 【2024.01.27】 完善数据构建文档、微调指南、部署指南、Readme等相关文档 👏
- 【2024.01.25】 EmoLLM V1.0 已部署上线 https://openxlab.org.cn/apps/detail/jujimeizuo/EmoLLM 😀
- 项目荣获上海人工智能实验室举办的2024浦源大模型系列挑战赛春季赛创新创意奖
-
荣获AI 赋能大学计划“全国高校行”一等奖
-
🎉感谢以下媒体及公众号朋友对本项目的报道和支持(以下排名不分先后! 若有遗漏、十分抱歉, 一并感激! 欢迎补充!): NLP工程化, 机智流, 爱可可爱生活, 阿郎小哥, 大模型日知路, AI Code 等!
-
项目宣传视频 EmoLLM 已发布,欢迎大家围观 😀
- 硬件:A100 40G(仅针对InternLM2_7B_chat+qlora微调+deepspeed zero2优化)
- Clone the repo
git clone https://github.com/SmartFlowAI/EmoLLM.git
- 请阅读快速体验查阅
- 快速上手:Baby EmoLLM
详见微调指南
- 详见RAG
- 本模型评测分为通用评测和专业评测,请阅读评测指南查阅
更多详情
贡献使开源社区成为一个学习、激励和创造的绝佳场所。你所作的任何贡献都是非常感谢的。
- Fork the Project
- Create your Feature Branch (
git checkout -b feature/AmazingFeature
) - Commit your Changes (
git commit -m 'Add some AmazingFeature'
) - Push to the Branch (
git push origin feature/AmazingFeature
) - Open a Pull Request
用户名 | 学校/组织 | 备注 | 贡献 |
---|---|---|---|
aJupyter | 南开大学在读硕士 | DataWhale成员 | 项目发起人 |
MING-ZCH | 华中科技大学在读本科生 | LLM x Mental health 研究者 | 项目联合负责人 |
jujimeizuo | 江南大学在读硕士 | ||
Smiling-Weeping-zhr | 哈尔滨工业大学(威海)在读本科生 | ||
8baby8 | 飞桨领航团区域主管 | 文心大模型核心开发者 | |
zxazys | 南开大学在读硕士 | ||
JasonLLLLLLLLLLL | swufe | ||
MrCatAI | AI搬用工 | ||
ZeyuBa | 自动化所在读硕士 | ||
aiyinyuedejustin | 宾夕法尼亚大学在读硕士 | ||
Nobody-ML | 中国石油大学(华东)在读本科生 | ||
chg0901 | MiniSora | MiniSora主要维护者,管理员 | LLM预训练和微调、模型上传、数据清洗、文档翻译 |
Mxoder | 北京航空航天大学在读本科生 | ||
Anooyman | 南京理工大学硕士 | ||
Vicky-3021 | 西安电子科技大学硕士(研0) | ||
SantiagoTOP | 太原理工大学在读硕士 | 数据清洗,文档管理、Baby EmoLLM维护 | |
zealot52099 | 个人开发者 | 清洗数据、LLM微调、RAG | |
wwwyfff | 复旦大学在读硕士 | ||
Yicooong | 南开大学在读硕士 | ||
jkhumor | 南开大学在读硕士 | RAG | |
lll997150986 | 南开大学在读硕士 | 微调 | |
nln-maker | 南开大学在读硕士 | 前后端开发 | |
dream00001 | 南开大学在读硕士 | 前后端开发 | |
王几行XING | 北京大学硕士毕业 | 清洗数据、LLM微调、前后端开发 | |
[思在] | 北京大学硕士毕业(微软美国) | LLM微调、前后端开发 | |
TingWei | 电子科技大学硕士毕业 | 微信公众号:AI大模型在手 | 微调 |
PengYu | 石河子大学在读硕士 | LLM微调 |
该项目签署了 MIT 授权许可,详情请参阅 LICENSE
如果本项目对您的工作有所帮助,请使用以下格式引用:
@misc{EmoLLM,
title={EmoLLM},
author={EmoLLM},
url={https://github.com/SmartFlowAI/EmoLLM/},
year={2024}
}
- 如果失效,请移步Issue区