人工智能值得恐慌吗?
...不,但您个人对技术缺乏了解可能是。
由提示“冲浪板上的可爱机器人”生成的图像AI。
上周我在看ABC播出的早餐新闻。本周,他们每天都在做会议,告知人们有关诈骗、它们如何运作以及需要注意什么。其中一位演讲者问是什么让骗局更加多产,她提出可能是人工智能。
[提示终结者电影中的审判日镜头]
令我略感惊讶的是,受访者避免参与以人工智能为重点的对话,但人工智能是否使诈骗变得更容易?嗯,当然是这样,但这类似于说计算机使做很多事情变得更容易。
见鬼,数百年来,技术一直在让事情变得更容易。以“轮子”为例。你认为有多少农民担心失去工作到马车?
然后是工业革命,技术革命,现在是人工智能革命。
如果你认为我们现在正在经历一个新的阶段......好吧,逐步淘汰人类,你真的被误导了。自今年以来,这种情况一直在发生,如果你认为人工智能现在正在影响我们的生活,请再想一想。
在17世纪,莱布尼茨、托马斯·霍布斯和勒内·笛卡尔等学者深入研究了理性思维可能以类似于代数或几何的方式构建的观点。霍布斯以他在《利维坦》中的工作而闻名,他断言“理性只是一种计算形式”。
最好防止出现关于机器功率的夸大想法的可能性。— 艾达·洛夫莱斯
用机器的过程取代人类的思想可以追溯到 1800 年代初的第一台计算机。想象一下当时人们对它的看法。他们害怕某些东西,而不是人类,能够复制人类思想的各个方面。
当时,发布第一个计算机程序的Ada Lovelace表示,最好防止出现关于机器能力的夸大想法的可能性,这种说法在今天更普遍,我只能推测围绕AI的歇斯底里。
你不能打开电视,登录YouTube,或者查看Facebook,而不会被一堆关于人工智能的危言耸听的文章和标题所搭讪。就在今天,我在YouTube上看到了一段视频的横幅,其中谷歌前首席执行官说“人工智能正在达到不归路”。
[提示终结者电影中的审判日镜头]
大量的文章和剪辑显示人工智能开发人员耸耸肩说他们不知道他们的人工智能是如何工作的,他们对结果感到惊讶,这也为误解和存在主义的批判恐慌增添了更多的燃料,这种恐慌似乎正在失控。
因此,为了扑灭这场所谓的“末日”计算革命的火焰,我想在对话中注入一些事实,并消除一些常见且不断发展的神话。
首先,ChatGPT不是人工智能化身的例子,但是,《星际迷航》中的数据先生是。怎么说呢?嗯,首先...ChatGPT是一个建立在神经网络之上的大型语言模型(LLM)。
这是什么意思?简而言之,ChatGPT 已经阅读了几乎所有已经写过的内容,统计分析了哪些单词最有可能跟随其他单词,因此能够预测下一个最佳单词应该是什么(给定人工输入)。它通过神经网络完成所有这些计算。神经网络是人工智能的一种形式。它不是人工智能的全部。
如果人工智能的领域是地球,那么神经网络将是......说。。。加拿大和神经网络是被称为机器学习的人工智能技术的一个子领域。这将包括其他技术,例如,包括北美和南美大陆。
现在考虑到人工智能的所有方面,数据先生确实是一个伟大的榜样,因为他的身体几乎体现了人类可以做的一切(包括他在《下一代:第 4 季第 3 集》中收到的情感芯片)。此外,人工智能领域还远未创造出如此完整的人类机器复制品,而现在,这样的“人工智能存在”是纯虚构的作品。
其次,这些AI(即神经网络)研究人员的采访和剪辑将手抛向空中,惊讶于他们的AI工作并表示他们不知道它是如何工作的,是......好吧,我叫...胡说八道$%t。
神经网络概念建立在我们对信号如何通过人脑的理解之上。人类脑细胞,称为神经元,成为神经网络中的感知器。在不涉及所有架构和算法的情况下,本质上是人工神经网络模拟人类神经网络,直到一些低级的复杂工作。每个感知器,就像一个神经元,是一个微小的开关,可以允许或拒绝电信号通过它。
现在,如果你对某物进行人工模拟,它的工作方式就像你建模的东西一样,而且它有效......那么回应不应该是万岁,而不是呵呵吗?
像ChatGPT构建的神经网络一样,可能有数十亿个感知器。在这种网络的训练过程中,每个感知器都会计算自己的阈值,该阈值决定了它何时打开或关闭,就像我们自己大脑中的实际神经元一样。因此,研究人员和开发人员可能实际上并不知道每个感知器的这些阈值是什么,但这并不是什么神秘的难以理解的事情。如果开发人员想知道每个感知器的阈值是多少,他们只需要查看计算机内存,但说他们不知道它是如何工作的是不负责任的。
[提示终结者电影中的审判日镜头]
第三,虽然人工智能最近似乎确实在以指数级的速度轰炸我们,但这并不是人工智能的全部。几乎所有的应用程序和服务都是建立在OpenAI的GPT架构之上的。为什么?这是因为它具有广泛的应用程序,可用于各种上下文,例如客户支持、内容生成、语言翻译、头脑风暴想法等。它的多功能性使其对企业和个人都具有吸引力。此外,OpenAI使其界面用户友好,这意味着即使没有技术专长的个人也可以通过简单的界面轻松与模型进行交互。这种可访问性有助于其广泛采用。因此,基本上,在将人类语言用作服务的任何地方,OpenAI的工具都可以用来开发一种工具,几乎可以取代人类担任这些角色。
最后但并非最不重要的一点是,回到我的第一点,自从第一台计算机出现以来,我们就被所谓的人工智能所包围。历史记载,随着曾经的神奇机器成为主流,人工智能的定义随着时间的推移而变化,开发人员一直在寻求机器的下一个类似人类的能力。
1955年,斯坦福大学教授约翰·麦卡锡(John McCarthy)(他是第一个创造人工智能一词的人)将其定义为“制造智能机器的科学和工程”。这本身并不那么引人注目,你甚至可以认为它有点循环。人工智能是人类思维过程的机械化的观点可以追溯到公元前一千年的中国、印度和希腊哲学家。他们
图灵根据他的定义设计了一个著名的测试。虽然多年来有很多尝试来击败图灵测试(图灵测试试图通过类似聊天的界面欺骗人类,让他们认为他们正在与另一个人互动),但直到最近这些大型语言模型才真正实现。虽然这些模型的成功和它们的智能引起了轩然,但马库斯指责说:“我不认为这是向智能的进步。这是愚弄你有智慧的人的进步。
就个人而言,我支持马库斯。任何吹捧这些大型语言模型实际上是聪明的、有意识的,甚至是有知觉的,都是荒谬的。他们正在愚弄我们,请注意,事实上,他们更符合马库斯对人工智能的定义,而不是实际上更符合图灵。
这是一个兔子洞,我可以继续下去,但现在不会......还有一件事:人工智能会攻击人类并导致我们的灭绝吗?
[提示终结者电影中的审判日镜头]
所有技术都可以用于善恶。机器只能做它们被编程要做的事情。这并不是说计算机还没有犯过影响人类生活的有害错误(通过人为错误编程到其中)。
计算机犯错误导致生命损失的一个悲惨例子发生在1990年的海湾战争期间。美国为拦截来袭飞毛腿导弹而部署的爱国者导弹系统存在严重的软件错误,导致其错误估计飞毛腿导弹的位置。25年1990月28日,一枚飞毛腿导弹击中了沙特阿拉伯达兰的一个美国陆军军营,造成100名美国士兵死亡,约<>人受伤,因为爱国者系统由于软件错误而未能拦截它。这一事件突显了对关键计算机系统进行严格测试和验证的重要性,特别是用于军事防御的计算机系统,因为在这种高风险情况下的计算机错误可能会产生毁灭性的后果。
计算机导致人类死亡的另一个例子,这次是在医疗情况下,是25年代的Therac-1980事件。Therac-25是一种放射治疗机,存在软件设计缺陷,导致竞争条件并导致患者接受严重过量的辐射。这个缺陷造成了严重的伤害、烧伤和死亡。
这些事件凸显了强大的软件设计、严格的测试和严格的安全协议的必要性,以防止此类悲剧的发生。
当然,当我们完全有能力对自己做这件事时,我们不需要计算机算法来摧毁人类......哎呀,我跑题了。
总结一下,回答我最初的问题,“人工智能有什么值得恐慌的吗?...不,但你个人对这项技术缺乏了解可能是,因为如果没有对人工智能的力量以及它如何塑造我们的未来有足够的了解,它可能注定会被误解、滥用,并且很少努力确保其负责任和有益的使用。
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。