Stars
BackTrader中文教程笔记(by:量化投资与机器学习),系统性介绍Bactrader的特性、策略构建、数据结构、回测交易等,彻底掌握量化神器的使用方法。章节:介绍篇、数据篇、指标篇、交易篇、策略篇、可视化篇……(持续更新中)
Openai style api for open large language models, using LLMs just as chatgpt! Support for LLaMA, LLaMA-2, BLOOM, Falcon, Baichuan, Qwen, Xverse, SqlCoder, CodeLLaMA, ChatGLM, ChatGLM2, ChatGLM3 etc.…
Firefly: 大模型训练工具,支持训练Qwen2.5、Qwen2、Yi1.5、Phi-3、Llama3、Gemma、MiniCPM、Yi、Deepseek、Orion、Xverse、Mixtral-8x7B、Zephyr、Mistral、Baichuan2、Llma2、Llama、Qwen、Baichuan、ChatGLM2、InternLM、Ziya2、Vicuna、Bloom等大模型
ChatGLM-6B: An Open Bilingual Dialogue Language Model | 开源双语对话语言模型
对ChatGLM直接使用RLHF提升或降低目标输出概率|Modify ChatGLM output with only RLHF
An open-source tool-augmented conversational language model from Fudan University
中文nlp解决方案(大模型、数据、模型、训练、推理)
Code for fintune ChatGLM-6b using low-rank adaptation (LoRA)
something like visual-chatgpt, 文心一言的开源版
Finetune LLaMA-7B with Chinese instruction datasets
为ChatGLM设计的微调数据集生成工具,速来制作自己的猫娘。
chatglm 6b finetuning and alpaca finetuning
人工精调的中文对话数据集和一段chatglm的微调代码
[ICLR 2020] Lite Transformer with Long-Short Range Attention
SwissArmyTransformer is a flexible and powerful library to develop your own Transformer variants.
An open-source chatgpt tool ecosystem where you can combine tools with chatgpt and use natural language to do anything.
骆驼:A Chinese finetuned instruction LLaMA. Developed by 陈启源 @ 华中师范大学 & 李鲁鲁 @ 商汤科技 & 冷子昂 @ 商汤科技
A japanese finetuned instruction LLaMA
Implementation of RLHF (Reinforcement Learning with Human Feedback) on top of the PaLM architecture. Basically ChatGPT but with PaLM
骆驼(Luotuo): Open Sourced Chinese Language Models. Developed by 陈启源 @ 华中师范大学 & 李鲁鲁 @ 商汤科技 & 冷子昂 @ 商汤科技
GLM-130B: An Open Bilingual Pre-Trained Model (ICLR 2023)
🤖 Assemble, configure, and deploy autonomous AI Agents in your browser.
🐙 Guides, papers, lecture, notebooks and resources for prompt engineering
欢迎关注公众号“前端自习课”,本仓库包含丰富的前端学习资料,包括 JavaScript、前端框架、HTTP、GraphQL、TS、Vue、React、Webpack等,还有很多我的原创文章,喜欢的朋友欢迎stat。:rocket:持续更新中...
原生JS手写的简易版react框架 支持函数式组件和基本hooks (更多hooks开发中)