打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
ChatGPT对机器人学来说意味着什么?

金融观察家

编者语

ChatGPT在2022年11月以一种更富有对话性的方式引起了人们的关注,并对机器人学产生影响。本文研究了这种新型AI在机器人学背景下有哪些潜在的积极和负面影响。本文对敬请阅读。

文章来源/微信公众号“图灵人工智能”

如果能够与机器人进行更自然的交互,那不是很好吗?嗯,也许现在我们有了一种可以帮助我们实现这一目标的技术。或者至少这是我在研究这篇文章之前的最初想法。这就是为什么正面的部分先出现,但实际上是负面的部分才抛出了这种新技术以及它面临的潜在问题,无论是技术上还是商业上。

ChatGPT在2022年11月以一种更富有对话性的方式引起了人们的关注。人工智能(AI)广泛地指任何能够执行通常需要人类智能的任务的计算机程序或系统,例如学习、问题解决、决策和语言理解。ChatGPT不同之处在于它使用的AI类型是自然语言处理(NLP),并且可以生成更像人类的文本。

显然,这将对机器人学产生影响,所以在这里我们将更仔细地看看NLP的积极和潜在负面影响。首先,让我们明确一下我们在这里讨论的机器人学的类型。对于OLogic来说,机器人学是一门涉及机器人的设计、构造和操作的工程和科学领域。随着时间的推移,这些机器人变得更加智能和交互性,从而导致了所谓的协作机器人(corobotics or cobots)的发展,其中机器人被设计成可以安全地与人类在同一环境中工作。这些机器人可以感知、处理和自主或半自主地行动。随着AI的发展,机器人工程师使用了各种技术,如机器视觉和强化学习,使机器人能够在广泛的应用领域执行任务,如制造、物流、医疗和探索。

ChatGPT是最近发布的也是最酷的AI工具之一,它有可能通过提高机器人的沟通和决策能力来增强机器人学。

那么,这种新型AI在我们的机器人学背景下有哪些潜在的积极和负面影响呢? 

01

ChatGPT可能带来的积极影响

作为一个AI语言模型,ChatGPT可以提供多种方式来改善机器人学。以下是一些可能的方式:自然语言处理(NLP):其中一个主要优势是如何使用ChatGPT来提高机器人的自然语言处理能力,使它们能够更好地理解和回应人类语言。这在人机交互和客户服务应用中尤其有用。

最近一个例子是,在一个热门视频中,一组程序员为波士顿动力公司的机器狗Spot配备了OpenAI的ChatGPT和谷歌的文本到语音调制。

结果非常有趣,也是一种可能性的很好的指示。然而,在尝试应用这些NLP技术时,Spot仍然需要特定的短语和程序才能够与人类“对话”。

微软,作为OpenAI的数十亿美元投资者,也发布了一些关于ChatGPT-机器人学集成的指导方针。开发活动的目标是使与机器人的交互更加自然。让它们从依赖代码来执行任务的机器人,转变为更自然语言指令的机器人。

机器视觉:ChatGPT也可以帮助改善机器视觉,这对于机器人“看到”和导航周围环境是必不可少的。通过在ChatGPT生成的合成数据上训练机器人,或者使用ChatGPT来增强现有的数据集,ChatGPT将能够提供更多的训练示例,以更准确地识别和解释视觉数据。这将帮助机器人以更高的效率和效果执行任务。 

强化学习:ChatGPT可以通过强化学习来提高机器人的学习能力。这涉及训练机器人根据环境的反馈来做出决策,使它们能够适应和改进。数据分析:ChatGPT可以帮助改善机器人的数据分析能力,使它们能够快速准确地处理和分析大量数据。这在物流和制造等领域特别有用,因为机器人需要根据实时数据做出决策。协作学习:最后,ChatGPT可以帮助机器人通过协作学习相互学习。这涉及机器人之间分享数据和见解,以提高它们的集体智能和效果。总的来说,ChatGPT有可能通过提高机器人的学习、决策和沟通能力来显著改善机器人学(感谢ChatGPT提供的结尾句)。

02

现在来看看负面影响 

使用ChatGPT或任何其他AI技术在机器人学中可能会带来负面后果。以下是一些它在商业和技术上可行性方面面临的问题类型的例子,以及它所造成的一些问题:概率性,而不是确定性:这可能是需要克服的关键问题之一。ChatGPT基于概率方法,这种方法较不结构化,因为概率模型基于概率理论或随机性在预测未来事件中起作用的事实。相反的是确定性,它与随机性相反——它告诉我们某件事可以精确地预测,而不需要随机性的额外复杂性。今天的机器人非常属于确定性阵营。它们被编程为在遇到的每种情况下都知道该做什么,这就是为什么大多数机器人在半控制环境中工作的原因。谷歌研究和日常机器人试图克服这些问题,在一个名为PaLM-SayCan的项目中。该研究的前提是“按我能做的去做,而不是按我说的去做”。他们的研究结果可以在GitHub上找到。该网站上有多个例子和试验,最近的总结显示,SayCan与改进的语言模型(PaLM)结合,他们称之为PaLM-SayCan,提高了整个系统的机器人性能,与之前的大型语言模型(LLM)FLAN相比。(https://youtu.be/E2g1APtSuUM)PaLM-SayCan选择正确的技能序列84%的时间,并成功执行它们74%的时间,将错误减少了一半,与FLAN相比。这特别令人兴奋,因为它首次代表了语言模型的改进如何转化为类似的机器人性能提高。

机器人学习(RL):为了帮助开发更自然的语言交互和进一步的基于学习的机器人学,需要大量的训练数据。如果您对这个技术领域感兴趣,并想了解更多,Bridge Dataset收集了来自33,078个远程操作演示、8,887个脚本策略的展开和21个不同环境的数据。

更大并不意味着更好:这一点对于我们克服NLP在现实世界部署中的主要技术限制至关重要。NLP或LLM令人惊讶的局限性是,您给它们提供更多的训练数据并不会导致更好的性能。事实上,可能是相反的,因为数据集变得不干净,由于所有数据的平均效应。

一种试图从视觉上理解这一点的方法是考虑一个模型已经在16种颜色上进行了训练。蓝色和黄色之间的区别非常明显,因此模型可以解释信息并提供准确的预测。如果您向模型中输入更多的数据,在这个例子中可能是500种颜色,以试图提供更微妙和粒度更细的信息,结果是模型无法区分它们。数据集的峰值和谷值平均化,使得它们之间没有明显的分界线,导致模型在预测时出错。

更多并不意味着更好的态度显示了对如何改进技术的关注。只是向它扔更多的数据并不是答案,因为这是一条收益递减的道路——而且很快就会达到。这也是为什么OpenAI的Sam Altman宣布,不会很快有Chat GPT-5。

目前试图克服这一点的方法是通过提示工程。

提示工程:因为更大并不意味着更好,而且LLM并不像人类那样真正理解世界,这导致了许多错误、错误的结果和纯粹的谎言,其中事实是编造出来的。这导致了一种新的技术工作,称为提示工程,其中一个人必须花时间精炼给LLM的问题,以便以一种方式引导模型朝正确的方向。几乎是在指导模型需要检索什么类型的信息,以便做出正确的答案。正如您可以想象的,这本身就是一种技能,而且又让结果受到人类偏见的影响。

蒸馏模型:也称为知识蒸馏,这影响了对这类模型未来的财务投资。虽然ChatGPT需要数亿美元和几个月的时间来训练每个版本,但通过利用知识蒸馏方法,斯坦福大学的一个小组最近发布(并终止)了他们的聊天机器人演示Alpaca,并得到了一些有启发性的结果。这个600美元的ChatGPT仿制品被发现与OpenAI的GPT-3.5模型有非常相似的性能。他们是怎么做到的?他们从OPenAI的text-davinci-003(更常被称为GPT-3.5)中收集了52,000个问答示例,并用它来重新训练一个LLaMA模型成为一个指令遵循形式。

这对普通人来说意味着什么?基本上,您可以用比ChatGPT成本低得多的价格获得80%的性能。所以,除非ChatGPT限制对这些LLM输入和输出的访问,或者他们成功地起诉每个人,否则似乎很难知道这些公司将如何维持它们的竞争优势和商业优势。

无意的偏见:这是一般AI行业所认识到的,和其他AI模型一样,ChatGPT也容易出现同样的问题。像ChatGPT这样的AI系统可以学习和复制它们所训练的数据中存在的偏见。如果数据存在偏见,AI系统就可能延续这种偏见,导致歧视或不公平对待。这需要仔细地关注和管理,以确保我们消除在实践中发现的任何偏见。

失业:更一般地说,在社会上,机器人学和AI的一个大问题是它们对工作的影响。随着它们不断进步,人们担心它们可能会在某些行业取代人类工作者,导致工作流失和失业。如果被取代的工人无法找到新的工作或者获得与机器人共事所需的技能,这可能会带来社会和经济后果。

依赖:一般来说,过度依赖机器人学和AI会使人类过度依赖这些系统,导致技能和能力的丧失。如果技术失败或出现故障,这可能会特别有问题,导致错误或事故。

道德问题:使用机器人学和AI引发了关于它们对社会影响的道德问题,特别是在隐私、自主性和问责方面。例如,可能会有关于个人数据如何收集和使用、谁对机器人造成的错误或事故负责、以及机器人做出的决定如何合理化等问题。

在我们继续开发和部署机器人学和AI技术时,重要的是要认识并解决这些潜在的负面后果。这可以通过仔细考虑这些技术的道德含义,持续监测和评估它们的影响,以及采取积极措施来减轻潜在风险来实现。

03

令人兴奋的未来

这是一个令人兴奋的技术领域,我们将密切关注我们在OLogic的开发项目中引入这些技术的情况。由于蒸馏变体的计算能力在几个千兆字节的范围内,OLogic期待着在我们自己的边缘AIoT PumpkinPi上运行这些蒸馏模型。这将以一种比当前大型计算轨迹更实惠和有竞争力的方式,将新的边缘情况应用带入市场……

Pumpkin Pi i350 EVK是一个边缘AI平台,专为需要视觉和语音边缘处理的主流AI + IoT应用而设计,例如面部、对象、手势、运动识别、LPR、语音激活和速度识别、声音隔离、生物技术和生物测量等。

ChatGPT对机器人意味着什么?泰德·拉尔森 |5年2023月2022日编者按:本文原载于OLogic网站,经授权转载。与机器人进行更自然的互动不是很好吗?好吧,也许现在我们有一项技术可以帮助我们实现这一目标。或者至少这是我在研究这篇文章之前的最初想法。这就是为什么正面部分排在第一位,但实际上负面部分提出了这项新技术最有趣的方面以及它在技术和商业上面临的潜在问题。ChatGPT 于 <> 年 <> 月以更具对话性的人工智能 (AI) 方法登上头条新闻。人工智能广义上是指任何可以执行通常需要人类智能的任务的计算机程序或系统,例如学习、解决问题、决策和语言理解。ChatGPT的不同之处在于它使用的AI类型是自然语言处理(NLP),它可以生成更像人类的文本。显然,这将对机器人技术产生影响,所以在这里我们仔细看看NLP的积极和潜在的消极因素。首先,让我们明确一下我们在这里讨论的机器人类型。对于OLogic来说,机器人是一个工程和科学领域,涉及机器人的设计,建造和操作。随着时间的推移,这些机器人已经改进为更加智能和互动,这导致了所谓的协作机器人或协作机器人的发展,其中机器人被设计成专门在与人类相同的环境中安全工作。这些机器人可以自主或半自主地感知、处理和行动。随着人工智能的发展,机器人工程师使用了各种技术,例如机器视觉和强化学习,使机器人能够在广泛的应用中执行任务,例如;制造、物流、医疗保健和勘探。ChatGPT是最新推出的,最酷的AI工具,它有可能通过提高机器人的沟通和决策能力来增强机器人技术。那么,在我们的机器人环境中,这种新型人工智能的潜在利弊是什么?

ChatGPT 的潜在积极影响

作为一种人工智能语言模型,ChatGPT可以提供多种方法来改进机器人技术。以下是一些可能的方法:自然语言处理(NLP):主要优势之一是如何使用ChatGPT来提高机器人的自然语言处理能力,使它们能够更好地理解和响应人类语言。这在人机交互和客户服务应用中特别有用。最近的一个例子是,一个程序员团队在病毒视频中为波士顿动力公司的机器狗Spot配备了OpenAI的ChatGPT和谷歌的文本到语音调制。结果非常有趣,很好地表明了可能性。然而,当尝试应用这些NLP技术时,Spot仍然需要特定的短语和程序才能与人类“交谈”。在OpenAI上投资数十亿美元的微软也发布了一些ChatGPT-机器人集成的指南。开发活动的目标是使与机器人的交互更加自然。将它们从依赖代码行来执行任务的机器人转移到更自然的语言指令。机器视觉:ChatGPT还可以帮助改善机器视觉,这对于机器人“看到”和导航周围环境至关重要。通过在 ChatGPT 生成的合成数据上训练机器人或使用 ChatGPT 来增强现有数据集,ChatGPT 将能够提供额外的训练示例来更准确地识别和解释视觉数据。这将有助于机器人以更高的效率和有效性执行任务。强化学习:ChatGPT可以通过强化学习来提高机器人的学习能力。这涉及训练机器人根据环境的反馈做出决策,使它们能够随着时间的推移进行调整和改进。数据分析:ChatGPT 可以通过使机器人能够快速准确地处理和分析大量数据来帮助改进机器人中的数据分析。这在物流和制造等领域特别有用,机器人需要根据实时数据做出决策。协作学习:最后,ChatGPT可以帮助机器人通过协作学习相互学习。这涉及在机器人之间共享数据和见解,以提高其集体智慧和有效性。总体而言,ChatGPT有潜力通过增强机器人技术的学习,决策和沟通能力来显着改善机器人技术(感谢ChatGPT的结束语)。

现在是负面的

在机器人中使用 ChatGPT 或任何其他人工智能技术可能会产生负面影响。以下是它在商业和技术上可行的问题类型的一些示例,以及它产生的一些问题:概率性的,而不是确定性的:这可能是需要克服的关键问题之一。ChatGPT 基于概率方法,该方法结构较少,因为概率模型基于概率理论或随机性在预测未来事件中发挥作用的事实。相反的是确定性,这与随机相反——它告诉我们某些事情可以准确预测,而不会增加随机性的复杂性。今天的机器人在很大程度上属于确定论阵营。它们被编程为确切地知道在遇到的每种情况下该怎么做,这就是为什么大多数机器人在半受控环境中工作的原因。谷歌研究和日常机器人试图在一个名为PaLM-SayCan的项目中克服这些问题。研究的前提是“尽我所能,而不是按我说的做”。他们的研究结果可以在GitHub上找到。网站上有多个示例和试验,最新的摘要显示,与以前的大型语言模型(LLM)相比,SayCan与改进的语言模型(PaLM)相结合,他们称之为PaLM-SayCan,提高了整个系统的机器人性能。PaLM-SayCan在84%的时间内选择了正确的技能序列,并在74%的时间内成功执行了它们,与FLAN相比,错误减少了一半。这特别令人兴奋,因为它首次代表了语言模型的改进如何转化为机器人性能的类似改进。机器人学习(RL):为了帮助开发更自然的语言交互和进一步基于学习的机器人技术,需要大量的训练数据。如果您对此技术领域感兴趣并想了解更多信息,Bridge 数据集已从 33,078 个远程操作演示、8,887 个脚本策略部署和 21 个不同环境中收集了数据。训练模型:LLM机器学习较少提及的缺点之一是训练模型所需的大量数据,这导致了两个主要缺点。首先,处理所有数据所需的大量计算能力。每次更新数据集时,这实际上都会花费数百万美元。第二个问题是重新训练模型需要几个月的时间。您不能简单地添加新的部分或子集,您必须在整个数据集上重新训练LLM。如果您有公司的可持续发展目标和温室气体目标,您可能需要在陷入炒作之前检查查询中有多少资源。更大不等于更好:如果我们要克服NLP实际部署的主要技术限制,这一点至关重要。NLP或LLM令人惊讶的局限性是,你给它们训练的数据越多,不会带来更好的性能。事实上,情况可能正好相反,因为数据集由于对所有数据的平均效应而变得不干净。尝试直观地理解这一点的一种方法是考虑一个模型已经接受了 16 种颜色的训练。蓝色和黄色之间的差异非常明显,因此模型可以解释信息并提供准确的预测。如果将更多数据输入模型,在此示例中,它可能是 500 种颜色,为了尝试提供更微妙和精细的信息,结果是模型无法区分它们。数据集的峰值和波谷平均,因此它们之间没有明确的界限,从而导致模型回复查询时出现错误。这种更多不等于更好的态度表明了对如何改进技术的关注。只是投入更多的数据并不是答案,因为它是一条收益递减的道路——这很快就会到达。这也是为什么OpenAI的Sam Altman宣布不会很快有Chat GPT-5的原因。目前尝试克服这个问题的方法是通过快速工程。提示工程:因为更大并不意味着更好,LLM实际上并不像人类那样理解世界,它会导致许多错误,错误的结果和事实编造的简单谎言。这导致了一项称为快速工程的新技术工作,一个人必须花时间以引导模型朝着正确方向前进的方式完善给LLM的问题。几乎指导模型需要检索的信息类型,以便做出正确的答案。可以想象,这本身就是一种技能,并且再次使结果受到人为偏见的影响。蒸馏模型:也称为知识蒸馏,这会影响未来对这些类型模型的金融投资。虽然 ChatGPT 需要数亿美元和几个月的时间来培训每个版本,但通过利用知识蒸馏方法,斯坦福大学的一个小组最近发布(并终止)了他们的聊天机器人演示,名为 Alpaca,并取得了一些有见地的结果。这个售价600美元的ChatGPT外观被发现与OpenAI的GPT-3.5模型具有非常相似的性能。他们是怎么做到的?他们从OPenAI的text-davinci-003(通常称为GPT-3.5)中收集了52,000个问答示例,并用它来将LLaMA模型重新训练为遵循指令的形式。这对普通人来说意味着什么?基本上,您可以以比 ChatGPT 的成本低得多的价格获得 80% 的性能。因此,除非ChatGPT限制对这些LLM的输入和输出的访问,或者他们成功地起诉了所有人,否则似乎很难知道这些公司将如何保持其竞争优势和商业优势。意外偏差:这是一般AI行业所认识到的,并且与其他AI模型一样,ChatGPT也容易出现同样的问题。像ChatGPT这样的人工智能系统可以学习和复制它们所训练的数据中存在的偏见。如果数据有偏见,人工智能系统可能会使这种偏见永久化,导致歧视或不公平待遇。这需要仔细的关注和管理,以确保我们消除在实践中发现的任何偏见。失业:在社会上,机器人和人工智能的一大担忧是它们如何影响工作。随着他们的不断进步,人们担心他们可能会取代某些行业的人类工人,导致失业和失业。如果失业工人无法找到新工作或获得与机器人一起工作所需的技能,这可能会产生社会和经济后果。依赖:一般来说,过度依赖机器人和人工智能会使人类过度依赖这些系统,导致技能和能力的丧失。如果技术失败或故障,导致错误或事故,这可能会特别成问题。伦理问题:机器人和人工智能的使用引发了人们的思考对它们对社会的影响的担忧,特别是在隐私、自治和问责制等领域。例如,可能会担心个人数据是如何收集和使用的,谁对机器人造成的错误或事故负责,以及机器人做出的决策如何合理。在我们继续开发和部署机器人和人工智能技术时,认识到并解决这些潜在的负面影响非常重要。这可以通过仔细考虑这些技术的伦理影响、持续监测和评估其影响以及采取积极措施减轻潜在风险来实现。

令人振奋的未来

这是一个令人兴奋的技术领域,我们将密切关注这些技术引入OLogic的开发项目。由于蒸馏变体的计算能力在几千兆字节的范围内,OLogic 期待在我们自己的 Edge AIoT PumpkinPi 上运行这些蒸馏模型。这将以比当前大型计算轨迹更实惠和更具竞争力的方式为市场带来新的边缘案例应用程序。

Pumpkin Pi i350 EVK是一款边缘AI平台,专为需要视觉和语音边缘处理的主流AI +物联网应用而设计,例如面部,物体,手势,运动识别,LPR,语音激活和速度识别,隔音,生物技术和生物特征测量等。谢谢,ChatGPT,也感谢您的投入。这是有见地的,尽管水平非常高。

https://ologicinc.com/what-does-chatgpt-mean-for-robotics/

文章来源:本文来自微信公众号“图灵人工智能”2023年6月19日(本文仅代表作者观点)

本篇编辑:郭舒怡

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
ChatGPT掀起技术狂潮:顶流之下,看人工智能喜与忧
Palantir演示军队如何利用ChatGPT进行作战
ChatGPT 的内幕:OpenAI 创始人Sam Altman如何用微软的数十亿美元打造了全球最热...
商业深度:ChatGPT是这样创造了人工智能狂潮的,从一家非营利组织开始 – 会员
Nat. Biotechnol.| 药物研发公司正在定制ChatGPT
Palantir演示军队如何利用“ChatGPT”进行作战
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服