大模型所谓的参数是什么?大模型为什么需要训练?大模型训练到底干了什么?
阅1转0刚刚今日arXiv最热NLP大模型论文:揭露大语言模型短板,北京大学提出事件推理测试基准
阅4转0刚刚太全了!多模态深度学习的综述!
阅1转0刚刚OpenAI最强竞品训练AI拆解LLM黑箱,意外窥见大模型「灵魂」
转自 天承办公室刚刚普林斯顿DeepMind用数学证明:LLM不是随机鹦鹉!「规模越大能力越强」有理论根据
阅1转0刚刚微软开放NewBing!但它还不是ChatGPT增强版!
转自 天选小丑刚刚让GPT大获成功的in-context learning,其实就是梯度下降?
转自 520jefferson刚刚图解72个机器学习知识点
阅4转0刚刚PyTorch版《动手学深度学习》PDF 版开源了
转自 大邓的Python刚刚单个神经元也能实现DNN功能,图像分类准确率达98% | Nature子刊
转自 山峰云绕刚刚ChatDev,开源了!
阅207转0刚刚用别的模型权重训练神经网络,改神经元不影响输出:英伟达神奇研究
阅2转0刚刚独家|一文带你上手卷积神经网络实战(附数据集&学习资料)
转自 穆容珊刚刚深度强化学习落地方法七步曲|写在前面 、需求分析、算法选择、动作空间、状态空间、回报函数、训练
转自 汉无为刚刚大语言模型剪枝20%,保留93.6%性能
阅104转1刚刚防止AI胡说八道!OpenAI公布最新大模型训练方法,监督AI像人类一样思考
阅34转0刚刚搜索引擎变天了!谷歌宣布开放「生成式搜索平台」!AI 大模型颠覆搜索体验
阅21转0刚刚还能这么玩?清华给 ChatGPT 做逆向,发现了 ChatGPT 的进化轨迹!
阅40转0刚刚文末送书 | 揭秘大模型底层技术:详解文本内容理解和生成技术细节
阅16转0刚刚大语言模型(LLM)分布式训练框架总结
阅172转2刚刚
-
设计心理学2:与复杂共处
加载中...