发布了 37 篇内容
共 13.0字, 被阅读 12915次
获得了 24 次赞同
获得了 6次喜欢, 获得了 18 次收藏
参与了 7 次互动
互动包含发布评论、点赞评论、参与投票等
科学的演变:从笛卡尔到生成式人工智能
编者按:本文主要介绍了科学的演变历史,从笛卡尔到生成式人工智能。文章探讨了数学在验证科学原理中的作用,并介绍了新机器学习工具如何验证新的科学。
AI 大模型已经出现不可预测的能力
编者按:日前,非盈利组织生命未来研究所发布了一封《暂停大型人工智能研究》的公开信,马斯克等千名科技人士进行了签名。虽然部分签署人的真实性存疑,但是大型语言模型(LLMs)的“涌现”能力确实可能会导致突然产生偏见、歧视和其他不可预测的风险。
万字详解 AI 开发中的数据预处理 (清洗)
编者按:在现实生活中,大多数数据都需要进行清洗和预处理,以便在使用数据时达到最佳效果。机器学习流程只能处理数字,因此需要找到一种方法将非数字特征转化为数字表示。本文还介绍了三种缺失值类型:完全缺失、随机缺失和非随机缺失,并教授如何使用 Pytho
大语言模型 (LLMs) 和新兴机器学习技术栈
编者按:过去,NLP 开发人员依赖于文本分类、命名实体识别和命名实体消歧等技术栈来优化 NLP 任务。然而,随着大语言模型 (LLM) 的快速发展,新的技术栈开始出现,以支持和加速这些大型语言模型的实现和应用。
3 分钟快速了解 GPT-4
编者按:3 分钟快速了解 GPT-4,高效获取目前关于 GPT-4 的重点信息。话不多说,Enjoy!
LLaMA 快速上手指南
近期,Meta 发布了人工智能大语言模型 LLaMA,包含 70 亿、130 亿、330 亿和 650 亿这 4 种参数规模的模型。其中,最小的 LLaMA 7B 也经过了超 1 万亿个 tokens 的训练。
一万年太久,只争朝夕 | Foundation model 的进展仍不够快
编者按:如今根基模型(Foundation Models)的应用和相关创新正在快速涌现,但仍有很大的提升空间,目前还无法充分发挥根基模型的潜能、将其高效快速地应用于企业级 AI 应用中。
人人看得懂的 ChatGPT 技术原理解析
编者按:自 ChatGPT 面世以来,我们在热切挖掘其丰富应用的同时,也在孜孜探求其背后的工作原理。 今天我们为大家带来的文章,深入浅出地阐释了 ChatGPT 背后的技术原理,没有 NLP 或算法经验的小伙伴,也可以轻松理解 ChatGPT 是如何工作的。
用 ChatGPT 优化 AI 绘画提示词的探索
这是一篇关于如何使用 ChatGPT 优化文生图提示词的简短经验说明。 自 ChatGPT 发布以来,大家已经探索了 ChatGPT 的各种各样的使用方法,如写代码、写小说、对话问答、撰写营销文案等。 下面我们将从多角度探索,如何利用 ChatGPT,优化 AI 绘画的提示词。
Prompt Learning: ChatGPT 也在用的 NLP 新范式
编者按:自 GPT-3 以来,大语言模型进入了新的训练范式,即“预训练模型 +Promp learning”。在这一新的范式下,大语言模型呈现出惊人的 zero-shot 和 few-shot 能力,使用较少的训练数据来适应新的任务形式。最近火爆出圈的 ChatGPT 是利用这一方式。
解析机器学习中的数据漂移问题
编者按:当模型在生产中呈现的输入与训练期间提供的分布不对应时,通常会发生数据漂移。
AIGC 神器 CLIP:技术详解及应用示例
编者按:上一期,我们介绍了 Diffusion 模型的发展历程、核心原理及其对 AIGC 发展的推动作用。本期,我们将共同走进另一项 AI 重要突破——CLIP,著名的 DALLE 和 Stable Diffusion 均采用了 CLIP 哦。
最新评论
AIGC 时代到来?聊聊其中最出圈的语言模型 GPT-3