什么是prompt engineering?如何了解prompt engineering的趋势?

什么是prompt engineering?

虽然人工智能融的应用也许会淘汰很多工种,却也会创造新的机会。我们可以利用人工智能将重复性的工作自动化,减省的时间可分配到更具意义的工作,从而促进生产力。如果你将人工智能工具当作你的下属,你必需学会和这些「下属」沟通及发出指示。当你越擅长设置明确及精准的指令,「人工智能下属」在执行指令时就会更加高效,产生更合符要求、更具质素的输出。在这个设想上,prompt engineering 可能即将成为一项必备的技能,就像使用Microsoft Office 的技能一样普遍。你能想像在没有Excel 的情况下胜任工作吗?

简单来说,prompt engineering 的目标是提出清晰的指令,达致人类和机器之间有效的沟通。计算机的「思维模式」建基于数学公式和运算模型,每一项元素都具有极强的逻辑性。

想像一场完全顺畅的对话,每一个词汇和句子都经过有意的选择和安排。使用清晰、精确和具逻辑性的语言,prompt engineering 可以缩小个人思想和实际表达之间的误差,确保指令被完全接收,不会发生任何错解。

Prompt engineering 可能会彻底改变我们的沟通方式。

我们为什么要学会prompt engineering?

总而言之,随着人工智能在我们的生活中扮演着越来越重要的角色,了解如何掌握其力量比以往任何时候都更加重要。这就是为什么学习prompt engineering 是掌控人工智能并将其用于提高生产力的关键技能。只有我们不断学习,才能在这场人工智能革命中取得主权!

如何了解prompt engineering 的趋势?

在我们深入探讨prompt engineering 之前,让我们先了解语言模型的运作模式。

事实上,人工智能广泛意旨创造能够模仿人类智慧的机器,而机器学习(Machine Learning) 是计算机科学中的一门学科。机器学习使用算法来构建预测模型,旨在解决特定的公式问题。简单来说,机器学习涉及三个步骤:收集数据、模型演算、以及预测结果。

人工智能最常见的领域之一是自然语言处理(Natural Language Processing)。自然语言处理的目的是让计算机理解和解释人类语言。语言模型是自然语言处理的关键组成部分。语言模型分析大量文字数据,并通过估计文字序列的概率来预测下一个文字。大数据的普及促进了大型语言模型的构建,大大提高了计算机处理自然语言的效率。

图片:语言模型的近代发展史

自从Google Research 在2017年发布Transformer 的开源代码,该深度神经网络架构已成为许多预训练模型(Pre-trained Model) 和微调模型(Fine-tuned Model) 的支柱,例如BERT、GPT 和LaMDA。这些模型先在海量文字数据上进行演算,建成预训练模型,及后再额外使用小型数据针对特定指令进行微调。这种演算模式大大提高计算效率——先花大量计算能力和时间,建成全面的语言模型,再按需要引入小型数据调整模型输出,调整得以迅速完成。这些后加的小型数据就是prompt,因此,整个微调的过程也被称为“prompt-based learning”。

图片:预训练模型和微调模型的演算流程示范

图片:Prompt 的输入和文字输出的流程示范

本文链接地址:https://www.wwsww.cn/rgzn/20859.html
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。