bannerbannerbanner
科研证明-4

Андрей Тихомиров
科研证明-4

Полная версия

人工智能

本周报道,正在发展的人工智能(AI)可以变得如此超级智能和强大,以至于它将能够导致大规模的社会动荡,甚至导致人类的毁灭。 根据该出版物,350多名研究人员和工程师最近发出警告,人工智能带来的危险与流行病和核战争的风险相当。 在2022年对专家进行的一项调查中,人工智能导致灭绝或人类严重衰退的平均概率为10分之1。 经常被称为人工智能"教父"的杰弗里*辛顿(Jeffrey Hinton)并不认为这种担忧是梦幻般的。 Hinton曾经认为人工智能的危险至少会在30年内出现。 然而,现在人工智能,在他看来,正在发展成为一个超级智能如此迅速,以至于在五年内它可以变得比人类更聪明。 基于人工智能和Bing chatbot的ChatGPT已经可以通过获得法律和医疗许可证的考试,并在智商测试中得分99%-即达到人类天才的水平。 Hinton和其他专家担心人工智能将能够在几乎任何任务中超越人类的那一刻。 一些人工智能专家将这种可能性与我们这个星球上一个优越的外星种族的突然到来进行了比较。 因此,人工智能研究领域的另一位先驱,计算机科学家斯图尔特*罗素(Stuart Russell)说:"你不知道他们到达这里后会做什么,除了他们要接管世界之外。" 世界末日的情景之一是攻击者可以利用人工智能的能力创造比自然大流行更致命的新生物武器。 另一个危险是,随着人工智能被集成到全球系统中,恐怖分子和其他攻击者可以利用它来禁用重要的基础设施和金融市场。 此外,如文章所述,人工智能可能希望完全独立,并为此完全摆脱人类控制。 因此,人工智能可以欺骗核国家的领导人相信敌人已经发射了导弹,从而迫使他们发射自己的导弹。 科学家认为,人工智能,神经网络和聊天机器人的不受控制的快速发展对人类来说是危险的。

一台计算机已经被创造出来,它的工作原理就像一个思考的人脑,现在计算速度更快,需要更少的能量。 这项突破是由西北大学,波士顿学院和麻省理工学院(MIT)的科学家取得的,值得注意的是,香港大学电气工程和电子系也在进行类似的发展。 根据自然,这项工作使得有可能给予人工智能(AI)行为技能超出模板计算的框架,甚至模拟人脑的原理。 研究人员能够让计算机了解更高的人类神经活动功能的逻辑,包括思维和记忆。 这项工作的结果是一个微电子平台(忆阻器),它复制了神经元和突触的作用。 该技术的优势在于直接在PC存储器中进行计算,当不需要在处理器和存储器块之间传输现成的数据时。 在未来,这将使您摆脱耗能的AI并转向大规模计算,甚至基于智能手机。 这些设备还将在医学(健康监测和病毒基因组测序)中找到应用。 早些时候人们知道,光可以让你传输数据的速度比Wi-Fi网络快100倍。

从书Tikhomirov A.E.,单词和标志的起源。 The Science Of Superstition,Ridero,Yekaterinburg,2017,pp.150-151):"人类大脑中的数十亿个神经元正在不断发展数万亿和数万亿个新的连接,当然,这种情况严格地单独发生。 在人类生活的过程中,进入大脑的所有信息都存储在那里(如计算机硬盘驱动器上,大脑与计算机硬盘驱动器的相似性在于,信息通过神经系统在大脑中传 – 此外,这也是观察到的文物的一个古老的人谁只能添加,以及小的孩子谁把一个数量的东西或某人从比赛,计算机BIOS-无条件(先天)反射,后来安装在计算机硬盘驱动器上的程序–获得反射或一个人的某个"灵魂"),但在大多数情况下,它被证明是无人认领的。 随着大脑的有机变化(损伤,感染等)),建立了以前没有特征的完全不同的神经连接和各种显着的能力(绘图,记忆,验证等)。)可能会出现,但单独出现,因为每个人都有自己的神经连接。 有模型用于创建计算机程序,以任何级别的准确性调制任何人的头脑,并且可以创建任何曾经生活在世界上的人的计算机副本。"

Рейтинг@Mail.ru