人民智造2-大模型这么强大,有什么风险吗

大家好,我是中国人民大学新闻学院的副教授塔娜。我主要研究的方向是传播学与计算科学的交叉学科方向。

大模型为什么可以回答各种问题?

大模型之所以能回答各种问题,核心在于预训练和微调这两个技术步骤。

预训练是通过让模型“阅读”充分多的,各种各样领域文本的语料知识,它能够推理得出文本之间最可能的关联关系。通过大量的训练,它可以帮助我们做很多文本生成任务。从而能够进行文本分类、摘要、翻译、生成等多种任务。“大”在这里指的是模型的规模和复杂性。

具体到模型本身,它是含有数以亿计的参数,大模型的参数越多,这个模型就越强。大模型还可以进行后续的微调。微调就是引入我们人工的辅助,由大模型进行进一步的学习。随后它就可能生成更符合我们人类要求的文本。

什么是GPT

GPT:它是通用预训练转换器的简称,它其实就是OpenAI这个公司,基于通用预训练的基础的技术来生成的。用于我们自然语言处理的一个大的模型。主要的一个特点

生成式(Generative):通过学习大量文本数据的统计规律,生成连贯、自然的文本

预训练(Pre-trained):在大规模无标注文本上训练,掌握通用语言模式,再通过微调适应特定任务

变换器(Transformer):基于Transformer架构,利用自注意力机制(Self-Attention)高效处理长文本依赖关系,支持并行计算

GPT的发展:

GPT-1(2018年):首个基于Transformer的无监督预训练模型,参数1.17亿

GPT-2(2019年):参数量增至15亿,支持多任务学习

GPT-3(2020年):1750亿参数,具备零样本/小样本学习能力

GPT-4(2023年):支持多模态(文本+图像),性能进一步提升

GPT-4o(2024年):多模态扩展至文本、音频、图像组合输入与输出

关于DeepSeek:

DeepSeek 是一款由中国团队研发的大型语言模型,以其高性能、低成本和对中文的优化处理而著称

核心特点:

高性能与低成本:DeepSeek 采用 专家混合架构(MoE),总参数达 6710 亿,但每个 token 仅激活 370 亿参数,显著降低计算成本,实现“小力出奇迹”的效果

中文优化:通过 双通道注意力机制和大量中文语料训练,在中文语境下表现优于多数国际开源模型,成语匹配准确率达 89%

开源生态:采用 MIT 协议开源,支持本地部署和定制化开发,适合企业级应用。

维度

DeepSeek

ChatGPT

架构

MoE混合专家,动态激活模块

传统Transformer,全参数参与运算

成本

本地部署成本低

训练成本低

高昂(API调用是D的5-10倍)

中文能力

专优,支持成语和复杂语义

通用性强,

多语言覆盖

实时性

知识截止 2024 年

部分版本支持联网更新

多模态

仅文本(截至 2025 年)

支持图文混合输入

开放性

全系列模型开源,支持二次开发

不开源,提供API

算法偏见是什么?

算法偏见指AI因数据或设计问题,产生不公平、歧视性的结果。例如:

比如我们的训练数据里边,男生求职更倾向于某几类专业,女生的求职更倾向于某几类专业。这样就无形之中形成了对性别的职业的歧视。还有一些是社会文化的影响,开发者他可能无意识的会将一些自身的偏见带进去。比如说我们对于这种人脸识别系统,白人的编程员,他可能更多的去选择了白人的人脸进行训练。对于黑人深色肤色人种的人脸的识别,那可能准确率会更低。

那算法偏见它导致的一个后果,在无形之中会加剧社会不平等,数据导致的偏差会导致结果性的偏差,会降低公众对算法的信任。解决的办法。首先就是提高数据的多样性。第二个提高算法的透明度。还有一点,对算法进行充分的伦理审查,改进或者是减少算法偏见对于现实社会的一个影响。

为什么大模型会“一本正经地胡说八道”?

这种现象称为AI幻觉(Hallucination),这个幻觉可以分成几种,事实性幻觉:与真实世界不符。还有一种我们叫忠实性幻觉,就是模型并不服从用户的指令产生。

产生幻觉的原因:

1.数据缺陷:训练数据包含错误或过时知识(如过时的科学结论)。

2.训练漏洞:模型过度依赖统计规律(如“多伦多”常与“加拿大”共现,误认为它是首都)。

3.推理局限:复杂问题超出模型能力,强行编造答案。

风险:如何批判性使用大模型?

第一个是我们需要有独立的思考能力,不能单向的模型输出什么,我们就接受什么,我们需要自主再行的进行验证。第二个,我们要理解模型,它其实本身它并没有形成真正的对这个世界的认知。它只是尽可能的通过最大化的概率来生成一个最可能的答案。还有一个需要来注意恶意的一些数据的隐私的一些侵犯。这个幻觉问题目前并没有100%的解决,但是会有一些方向。比如说我们可以通过检索增强生成(RAG)、人工审核等减少幻觉。RAG我们简单的理解就是,我手头有一个大模型,同时我还能让它,现场新学知识,收到我们的提问之后,它可以一边基于它的知识库组织答案。一边还可以在互联网上或者是其它的知识库里面进行检索,来得出一个更新知识后的答案。

本文为科普中国·创作培育计划扶持作品

作者:人民日报

审核:贾宁 大连东软信息学院 教授

出品:中国科协科普部

监制:中国科学技术出版社有限公司、北京中科星河文化传媒有限公司

来源: 科普中国创作培育计划


图文简介

本期节目由中国人民大学新闻学院的副教授塔娜,系统剖析了大模型的技术原理与潜在风险。大模型通过预训练掌握语言统计规律,再经微调适配人类需求。(出品:科普中国创作培育计划)