“这个问题的关键,是要找到关键的问题”“后台数据管理的重点,是管理后台数据”“如果一个人不胖,那一定是个瘦子”……
大话、空话、套话、车轱辘话……这一两年,越来越多的高校老师发现,自己学生的课程论文、毕业论文里,AI写作的痕迹越来越明显。
“上有政策,下有对策。”随着一些学校开始检测论文的AI率,更吊诡的现象出现了:学生会用AI,把“AI率”降到规定比例之下。
用AI写论文,用AI检测论文的AI率,再用AI把AI率降下去。有人开玩笑说,“毕业论文的致谢,最该感谢的是AI”。
AI写论文,是辅助还是作弊?学术论文,AI参与的边界在哪里?浪潮到来,如何建立起新的规范?这些都是学术界如今不得不面临的问题。
当AI“入侵”大学论文
去年,正在北京某大学法学院读博的小范发现,在写论文时用上AI,能大大缩短写稿时间。
之前,对她来说,一篇上万字的论文,从确定题目到完成初稿,起码要三个月甚至大半年。但用上AI辅助后,能节省20%-30%的时间。
通常下笔之前,最重要的是阅读文献。AI仿佛一个抓手,小范把PDF版的论文上传后,原本要读半个小时的文献,在几秒钟之内就可以被拆解成一个个核心观点,清楚直观,几分钟便能读完。
小范分享了她电脑里最常打开的一个文档,里面写满了她总结出来的“AI驯化指令”。她会经常在网上搜索,如何更好地向ChatGPT提出问题,以便得到更准确的回答。
AI对论文的帮助,不仅体现在人文社科领域。正在某985高校读博的阿土,主要研究方向是算力与电力协同优化。据她观察,身边几乎每个理工科的同学都会不同程度地借助AI完成论文。
因为研究过程中会涉及到机器学习、人工智能相关的技术方法,阿土会用AI找课题灵感,“虽然最后生成的代码80%都经不起细究,但还是能从中窥得一些思路。”
此外,一些AI大模型还具备处理图像内容的能力,这对于需要进行大量数据分析的阿土来说,无疑更加省时省力。不过阿土始终认为,AI只是在使用已有的内容,并没有什么创造性,所以她只会借助它来检索文献、提炼重点,减轻一些机械工作。
在社交平台上,不难看到使用AI代写整篇论文的大学生。在一篇名为《挑战100%AI完成毕业论文成功》的帖文中,一位网友表示,尽管自己的论文100%由AI完成,但“二辩名单和重大问题名单中没有我……学校没查AI率,如果真查就用AI降重”。
该网友详细地分享了AI创作论文的过程:文字上,可以把筛选过的有效资料输入给AI,让它总结提炼;模型和代码,则可以全权交由AI处理,只需做简单的修改;甚至最终的参考文献,也让AI根据文章内容自己查找,或者“自由创作”文献名称。
当然,并不是所有人都能把论文放心地交给AI。毕竟,AI在给出准确答案的同时,也会“胡乱输出”内容,令人难辨真假。
南开大学博三学生小杨就认为,AI辅助写作的效果并没有达到自己的预期:“很多材料看着像那么回事,却是AI自己编的。它还会编造很多看似有道理的观点,但我找不到相应的数据和事例。”
是辅助还是作弊?
高校教师们也逐渐感受到了AI的“入侵”。
北京某985高校讲师小魏在审看和修改学生论文时发现,由AI生成的论文最大的特点,就是容易出现“假大空的车轱辘话”。“遣词造句半天也提炼不出一个明显的观点,而且文字晦涩难读。而观点和语言,恰恰又是评价学术论文最重要的两个维度。”
小魏所在的电力研究领域,算是实操性很强的工科。设计实验、做实验这些实操,AI无法代劳,而论文里的文献综述、案例分析和结论等文字部分就成了AI的“重灾区”。
更让老师们感到无奈的是,通常来说,一篇论文的致谢往往是最感性走心、最有“人情味儿”的部分,但现实情况是,连这部分,很多学生都要找AI代劳,只留下一些官方的、空洞的文字。
西南地区某高校老师代佳感慨道,以前看学生论文,看到语句不通的、用大白话的、语言过于生活化的,会感到生气;但现在看到,第一反应是“松一口气”,“至少说明是自己写的”。
在小魏看来,对于学术研究,AI技术本身肯定是大有帮助的,但问题在于如何使用AI,以及使用到什么程度。
她和同事们希望学生能保持一定的判断力,即便用AI润色语言,也一定要注意学术论文的规范和逻辑,多做调整修改。同时,她也不希望学生过于依赖AI提供的思路框架,“一旦形成思维定势就麻烦了,学术研究里,批判性思维和独立研究能力才是最重要的。”
事实上,更大的争议还在于,当研究和写作过度依赖AI,而非自己独立完成,算不算一种学术不端?
虽然在今年4月颁布的《中华人民共和国学位法》中,并没有明确地把人工智能代写纳入学术不端行为,但在中国教育科学研究院研究员储朝晖看来,“代写论文肯定是违背学术的基本精神的”,因为根本无法体现作者自己的创造性以及对论文的贡献程度。
北京航空航天大学法学院副教授赵精武也认为,AI代写整篇论文的行为属于典型的学术不端行为,与传统的找人代写并无二致。因为AI代写需要使用海量的文本数据,生成的文本内容很容易与现有作品雷同,产生侵犯著作权等法律风险。
除了学术诚信的问题,AI写作还存在信息泄露的隐患。在读博士生小安已经意识到了这个问题。他的实验项目涉及到一些企业的财务数据,如果让AI来做数据分析,“数据泄露出去怎么办?”
厘清边界
如今,作为一种技术,AI的普及应用已难以阻挡。因此,学术界如何制定相关规则,规范AI写作才是关键。
清华大学人工智能治理研究中心主任梁正认为,首先应该明确AI辅助与AI代写之间的边界。
“AI可以用于整理研究文献和提供写作思路,还可以代替人完成一些低难度、重复性的工作,比如制作表格、PPT;但不能用于生成整篇论文,否则将被视为学术不端行为。”
今年以来,福州大学、湖北大学、南京工业大学等全国多所高校也出台规定,对毕业设计(论文)中的人工智能生成内容占比进行检测。
小魏所在的高校就已明确引入“AIGC(生成式人工智能)检测服务系统”,对所有研究生的学位论文进行检测;小杨也发现,很多学术期刊已经在投稿页面标注出了关于AI使用的要求。
受访者供图
北京教育科学学院副研究员冉乃彦则提出了一种更为灵活的应对策略。他认为,应该在论文评审时,具体细致地考查作者的创造。
“AI只能利用已有知识回答问题,而最珍贵的,是盘活这些知识,创造出新的想法和观点。”他建议,大学可以增加专家面试环节,专家根据论文提出问题,和作者展开讨论。通过专家深入个别研究,确定学生论文使用AI的界限和范围。
技术带来的变化,每一代人都要面对,要想确保学术论文的质量,还得从源头做起。
高校教师小魏认为,在新的技术环境之下,老师的引导尤为重要。“导师应该和学生多沟通,抓准学术的创新点;学生论文的不同研究阶段,老师都应该多指导,而不是到了要交稿时才想起来问几句。”
“老师要让学生明白,科研是一场长跑,不能光靠AI来‘临时抱佛脚’。读史料、做田野调查、跑数据、做实验,永远是人要做、人该做的事。”
(应受访者要求,小范、阿土、小魏、小杨、小安均为化名)
转自:央视网
记者:黎彩 杨瑞
来源: 半月谈
作者 | 杨晓凡
编辑 | Camel
前两天「AI科技评论」总结了 2019 年十大精彩 AI 学术论文 ,从学术价值的角度挑选了我们认为 2019 年里值得重读、值得纪念的机器学习论文。
在这篇文章里,我们会盘点 2019 年出现的新颖有趣、挑战传统观念的十篇机器学习论文。其中有的论文的学术价值如何还有待商榷、有的论文甚至直接把前人的许多研究成果一把推翻,但这些论文都新意满满。这十篇论文刚好可以归为 5 个不同的主题,每个主题两篇。
[ 1 ]
论文:OpenAI MuseNet
上榜理由:2019 年年初,在声称「GPT-2 过于危险,不能公布预训练模型」并引发大规模口水仗之后,OpenAI 觉得 GPT-2 的能力不止如此,他们尝试的下一个任务是安全且喜闻乐见的音乐生成。基于 GPT-2 编写的 MuseNet 模型继承并进一步加强了长序列生成能力,使用的训练数据是包含了 10 种不同乐器的、分类为多种不同曲风的数十万个 MIDI 文件,也就是数十万个乐曲。(MIDI 文件是乐谱的数字表示,可以指定乐器但不含有乐器的音色信息,学习 MIDI 是明确地让模型学习作曲风格。)
用肖邦曲风续写 Adele 的《Some One Like You》,来自 OpenAI 技术博客
模型的效果是惊人的,OpenAI 不仅在直播中演示了许多风格各异、辨识度高、旋律自然的生成乐曲,他们还在介绍博客中提供了一个互动演示,可以从某首些知名乐曲中取一个小节作为开头,然后让模型以其他的风格续写,续写结果令人惊喜。还有好奇且有动手能力的网友们利用 OpenAI 提供的试验工具生成了更多乐曲,都印证了 MuseNet 确实有强大的作曲能力。
同期谷歌也在巴赫诞辰日做了一个模仿巴赫的作曲 AI(https://www.google.com/doodles/celebrating-johann-sebastian-bach),可以根据用户给出的音符,以巴赫的作曲风格增加和弦。这两个音乐 AI 的区别,除了巴赫 AI 只掌握巴赫的曲风之外,还在于巴赫 AI 是在已经给出的小节中继续增加音符形成和弦,而 OpenAI 的 MuseNet 是向后续写更多小节。
博客地址:openai.com/blog/musenet
详细阅读:这个AI能用Lady Gaga曲风续写贝多芬
[ 2 ]
论文:Newton vs the machine:solving the chaotic three-body problem using deep neural networks
深度神经网络求解三体运动问题
上榜理由:三体运动问题没有解析解早有定论,所以这篇论文公开之后也引发了一些批评,毕竟论文只是尝试了极为简化的情况(三个质量相等、初始速度为零的粒子在同一个平面内)、只是做到了接近的数值解就拿出来张扬,而且还宣称比计算精确解的专业软件快十万倍,对网络的能力有夸大吹捧之嫌。
这篇论文也有积极的一面。以深度学习为代表的机器学习手段确实在各种端到端的学习预测任务中得到了越来越多的运用,但其实深度学习的能力也不仅如此,它还可以在许多领域的更多任务中发挥作用,正如三体运动这样的复杂问题中我们缺少可以快速计算近似解的工具。
论文地址:https://arxiv.org/abs/1910.07291
解读文章:深度学习求解「三体」问题,计算速度提高一亿倍
[ 3 ]
论文:ImageNet-trained CNNs are biased towards texture; increasing shape bias improves accuracy and robustness ( ICLR 2019 )
在 ImageNet 上训练的 CNN 会带有纹理偏倚;增加形状偏倚可以提高准确度和鲁棒性
上榜理由:现代 CNN 网络有很强的特征表示学习能力,能在 ImageNet 上得到很高的识别准确率。不过,不断改进网络架构、不断刷分的人多,探究 CNN 到底学到了怎么样的特征表示的人少。按理说,对象识别的边界和纹理之争早就存在,不过我们终于还是在 2019 年看到了针对性的研究论文。
这篇论文中的实验表明,在 ImageNet 上训练的 CNN 网络在对象识别中依赖纹理远多于依赖形状;这其实和人类对自己的识别模式的认知有很大区别,也和我们对 CNN 工作方式的理解有所不同。作者们的结论有充分的实验支持,他们甚至用生成的风格转换数据集训练了依赖形状更多的 CNN,这样的 CNN 在识别准确率和鲁棒性方面都有提高。这篇论文被 ICLR 2019 接收。
论文地址:https://arxiv.org/abs/1811.12231
[ 4 ]
论文:Deep Double Descent: Where Bigger Models and More Data Hurt
研究深度双波谷:更大的模型和更多的数据有时会产生负面作用
上榜理由:2019 年中,包括 OpenAI 在内的一批学者「老调重谈」地再次讨论起模型复杂度和过拟合的问题来。机器学习界流传已久的观念是,随着模型的复杂度增大(学习能力提高),模型总能得到更小的训练误差,但测试误差和训练误差的差会越来越大(出现过拟合);所以模型复杂度不能太低、也不能太高,我们需要找到相对平衡的那个点。(上面的 U 型图)
但这两年来,一大批超级大、超级复杂的模型用实际行动表明了训练误差和测试误差都还可以一同持续下降。所以这次讨论形成的新共识是,我们需要在 U 型图的右侧继续扩充,用来表示现代的、大容量的深度学习模型在大小超过某个阈值之后,越大的模型会具有越好的泛化性。这样,整张图就形成了双波谷的样子(下图) —— 也就是说,当你的模型大小很不幸地落在中间的波峰的时候,你就会遇到模型越大、 数据越多反而表现越差的尴尬情境。
论文地址:https://arxiv.org/abs/1912.02292
[ 5 ]
论文:Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations
挑战解耦表征的无监督学习中的共识
上榜理由:人类研究人员们相信,真实数据的多种多样的变化总是可以用一些关键因素的波动来解释;至于这些因素分别是什么,就可以用无监督学习的方式寻找解耦的表征,从而成功地揭示数据分布规律。这个方向目前已经有一些研究成果,研究人员们也已经形成了一些共识。
但这篇论文可以说把现阶段的大部分成果和假设一竿子全部打翻。作者们首先从理论上说明,如果不在模型和数据上都引入归纳偏倚,那么解耦表征的无监督学习本来就是不可能的。接着,作者们用大规模实验表明,虽然不同的方法都可以找到和选取的训练损失对应的性质,但只要没有监督,就训练不出能良好解耦的模型。除此之外,随着表征解耦程度的提高,学习下游任务的样本复杂度并没有跟着降低。这几点结论都和当前的解耦表征无监督学习的共识形成鲜明冲突,这个方向的研究人员们也许需要重新思考他们要从多大程度上从头来过。
作者们的建议是,未来的解耦学习研究需要分清人为引入的归纳偏倚和监督(即便是隐式的)两者分别的作用,需要探究通过人为选取的损失「强迫」模型学习解耦带来的收益到底大不大,以及要形成能在多个不同的数据集上测试、结果可复现的实验惯例。这篇论文被 ICML 2019 接收。
论文地址:https://arxiv.org/abs/1811.12359
[ 6 ]
论文:Uniform convergence may be unable to explain generalization in deep learning
收敛一致性可能解释不了深度学习中的泛化现象
上榜理由:为了探究深度学习泛化能力背后的原理,学术界提出了泛化边界的概念,然后尝试用「收敛一致性」理论推导、设计出了各种各样的泛化边界描述方法,似乎已经取得了不少成果。但这篇论文中作者们通过大量实验发现,虽然其中的许多泛化边界从数值角度看起来挺大,但随着训练数据集大小变大,这些泛化边界也会跟着变大。
在此基础上,作者们用过参数化的线性分类器和梯度下降训练的神经网络为例,证明了收敛一致性并不能解释模型的泛化性,即便完全考虑了梯度下降可能带来的隐式偏倚也解释不了。更严谨地说,作者们实验表明,根据收敛一致性得到的泛化边界要比根据梯度下降得到的泛化边界大得多。根据这一系列结果,作者们对「用基于收敛的方法解释泛化能力」的做法提出严重的质疑。虽然这篇论文并没能解决(也没打算解决)深度神经网络中的泛化性问题,但它显然为整个领域指出「此路不通,考虑重来」。这篇论文获得 NeurIPS 2019 杰出新方向论文奖。
论文地址:https://papers.nips.cc/paper/9336-uniform-convergence-may-be-unable-to-explain-generalization-in-deep-learning
[ 7 ]
论文:On The Measure Of Intelligence
关于智慧的测量手段
上榜理由:虽然机器学习研究人员们总说通用人工智能是远大理想和努力方向,但「在固定的具体任务上跑分」的惯例实在看不出哪里和通用人工智能沾边了。谷歌大脑研究员、Keras 库作者 François Chollet 在日常抨击这种风气的同时,最近也公开了一篇严肃的论文,明确提出我们需要考虑如何测量真正的智慧。
他在论文中描述的核心想法是:要了解一个系统的智慧水平,应当测量它在一系列不同任务中表现出的获得新能力的效率;这和先验、经验、泛化难度都相关。论文中包含了对 AI、智慧相关概念的解释和讨论,他认为的理想的通用 AI 评价方式,以及他自己设计的认为比较能反映及测量真正的智慧的 ARC 数据集。对智慧的讨论和复制还有很长的路要走,这篇论文再次提醒大家对「我们应该从哪里开始、往哪里去」保持清醒。
论文地址:https://arxiv.org/abs/1911.01547
详细介绍:测量「智慧」的正确姿势可能是?
[ 8 ]
论文:Putting an End to End-to-End: Gradient-Isolated Learning of Representations
给端到端学习画上句号:表征的梯度隔离学习
上榜理由:这篇论文提出了一种全新的自学习方法,它采用的并不是深度学习中惯用的端到端梯度下降,而是把贪婪 InfoNCE 作为目标,分别独立地训练网络中的各个模块。它的学习方式更接近于自监督学习,是把各种不同的小块之间的共同信息作为每个小块的训练的监督信号,把时间维度上临近的表征之间的共同信息最大化。之所以这种做法能奏效,是因为数据中符合这种设想的「慢特征」对下游任务非常有帮助。这种方法大幅节省了训练时间,也避开了大规模模型遇到的内存空间瓶颈。
这种方法很大程度上是从生物学现象得到启发的,也就是,整个大脑并不针对同一个唯一的目标进行优化,而是有模块化的功能分区,然后每个区域都优化自己的局部信息。目前看起来,这种方法可以方便地快速训练更深的模型,利用局部信息的设定也避免了传统神经网络中梯度消失的问题。这是一种有潜力的方法,不过是否能像论文标题中说的那样「给端到端学习画上句号」还需要等待时间验证。这篇论文获得 NeurIPS 2019 杰出新方向论文提名奖。
论文地址:https://arxiv.org/abs/1905.11786v2
代码开源:https://github.com/loeweX/Greedy_InfoMax
博客介绍:https://yann-leguilly.gitlab.io/post/2019-09-29-representation-learning-with-contrastive-predictive-coding/
[ 9 ]
论文:Read, Attend and Comment: A Deep Architecture for Automatic News Comment Generation
上榜理由:这是一篇 EMNLP 2019 接收论文,会议结束之后则在社交网络上引发了大片声讨之声。我们固然知道具备优秀学习拟合能力的深度神经网络有能力大批量生成新闻评论,这篇论文中的方法能提取文章的重点观点生成响应的评论,而且也在自动评价指标和人类评价的两个方面都得到了很好的结果,但批评的声音认为,更重要的是「是否应当做这样的研究,这样的研究的社会影响是怎么样的」。EMNLP 2019 还有一篇遭受了类似批评的论文是《Charge-Based Prison Term Prediction with Deep Gating Network》(https://arxiv.org/abs/1908.11521),在诉讼案件中根据检方指控的罪行预测被告刑期。
论文地址:https://arxiv.org/abs/1909.11974
[ 10 ]
论文:Facial Reconstruction from Voice using Generative Adversarial Networks
上榜理由:作为更大、更综合性的会议,NeurIPS 2019 接收论文中也有带来很大争议的,这篇「用 GAN 从声音重建人脸」的论文就炒得沸沸扬扬。即便我们认可一个人的说话声音可能和性别、年龄、体形相关,也许模型能比人类更敏感更明确地找到其中的相关性,但「侵犯隐私」、「丧失道德判断力」、「增加社会偏见」、「做奇怪无用的课题」之类的批评仍然是免不了的。
NeurIPS 2019 也不止有一篇论文引发争议,还有一篇是《Predicting the Politics of an Image Using Webly Supervised Data》(arxiv.org/abs/1911.00147),判断新闻媒体选用的人物照片体现了左派还是右派的政治理念。如果看作是揭露大众偏见的社会学研究的话,这篇论文可能还有一些价值。
论文地址:http://papers.nips.cc/paper/8768-face-reconstruction-from-voice-using-generative-adversarial-networks
相关问答
使用AI写论文通常涉及选择适的AI写作工或平台,输入主题、要点和结构信息,然后让AI系统生成内容。首先,明确论文的题目和主旨,然后提供必要的背景信息、关键...
使用AI写论文需要使用自然语言生成(NLG)技术,这些技术使用深度学习和神经网络算法来生成人类可读的文本。以下是一些可能的方法:使用AI写作工具:市面上有很...
可以。通过对“ai检测中风险”的问题进行分析,我们可以得知这是关于某个的风险检测能力的问题。从技术角度上来说,目前在很多领域的应用取得了一系列成功,...
使用AI撰写毕业论文存在潜在风险,主要集中在学术诚信和思考能力方面。因为AI生成的内容可能涉及抄袭或缺乏原创性,导致论文质量不符合学术要求。还有,一定要...
不正常。一般来说,如果论文AI率在10%到15%之间,这算是比较正常的。如果论文AI率在15%到30%之间,这可能就需要进行一些修改,修改后进行复查,直到论文AI率合...
比较困难。目前AI撰写论文的内容层次很难达到毕业论文要求,所撰写的内容很难通过审核,暂时达不到毕业论文标准,不可靠。比较困难。目前AI撰写论文的内容层次...
1.进行风险评估,首先需要对ai系统进行全面的风险评估,确定系统中的高风险因素,以及可能导致这些风险因素的原因。评估结果将为后续的解决方案提供指导。2.技...
标题:利用AI技术进行论文润色的方法正文:在当今的学术界,借助人工智能(AI)技术来润色论文已经成为一种流行的方法。利用AI技术可以有效地改善论文的质量,...
大专毕业论文用AI写可能会带来以下影响:效率提升:AI可以快速生成文章,大大缩短写作时间,可以帮助你更高效地完成毕业论文。语法准确性:AI通常具有较高的语法...
学术论文重要的思考与表达。AI的学习,如果它学会了人类的思考问题,发现问题,研究问题,表达观点。这个时候AI也就可以写出学术论文了。这个问题我认为只是...