World Models
...
LLama微调
1.LLama微调 准备数据集 导入数据集,调整训练参数 指令预览 模型设置,进程数,微调方式,数据集,学习率,批次大小等 开始训练,训练过程 损失呈现,模型保存路径 载入训练好的模型权重 效果演示 2.设计思路 3.知识库搭建 本地知识库 AnythingLLM + 本地模型/API Langchain+ChatGLM Cherry Studio + API 以上方式我均尝试过,其实效果不太理想,原因是本地跑LLama模型推理速度太慢,嵌入模型和LLM推理能力不够 云知识库 Dify Coze 智谱清言 Cloudflare云知识库 CloudRAG
AdvDreamer
...
机器学习笔记
一、线性回归的从零开始实现1.请详细分析以下代码1234567891011121314151617181920212223242526272829303132333435363738// 初始化参数w = torch.normal(0, 0.01, size=(2,1), requires_grad=True)b = torch.zeros(1, requires_grad=True)// 定义模型def linreg(X, w, b): #@save """线性回归模型""" return torch.matmul(X, w) + b// 定义损失函数def squared_loss(y_hat, y): #@save """均方损失""" return (y_hat - y.reshape(y_hat.shape)) ** 2 / 2// 定义优化算法def sgd(params, lr, batch_size): ...