gpt4 book ai didi

artificial-intelligence - 大脑的计算机模拟

转载 作者:行者123 更新时间:2023-12-04 08:44:03 29 4
gpt4 key购买 nike

几个月来,我一直在网上定期寻找答案,但并不快乐。如果有人能提供任何启示,将不胜感激。

我对模拟人脑所做的工作很感兴趣。我当然可以说很多事情。这是我的意思,然后是我的意思:

我对模拟我们的想法和感受很感兴趣。我不是在谈论神经元级别,而是对所涉及的更大模块的更多模拟。例如,可以将“愤怒”模块模拟为一项服务,该服务衡量一个人受到不尊重的程度(在某些表示系统中)并输出适当的愤怒度量(再次在某些表示系统中)。

我对 Blue Brain 等项目不感兴趣,这些项目正在构建精确的神经元簇模型。我对在更高抽象层次、情感模块、认知推理系统等层次上运行的模型感兴趣。

我也对那些以人类机制为灵感或范式的人工智能项目不感兴趣,比如信念-欲望-意图系统,但实际上并没有试图复制人类行为。尽管这些系统很有趣,但我对制作有效的系统不感兴趣,而是对有效地模拟人类的思想和情感感兴趣。

我一直在进行广泛的搜索,但我发现的只是 60 年代的论文,例如:
Computer Simulation of Human Interaction in Small Groups

在我看来,当计算机第一次出现时,心理学家似乎对模拟大脑感到兴奋,但现在根本不这样做?

谁能指出我最近的研究/努力的方向,如果有的话?

最佳答案

有很多人对此进行了思考,但其中一个问题是,随着人工智能研究的继续,人工智能似乎越来越多地让我们认为某些事情实际上相对容易而似乎很难,而显然东方东西是硬的。

例如,考虑一下专家在某个话语领域做了什么。我们曾经认为,在 60 年代左右,医学诊断和下棋之类的事情很难。我们现在知道,就任何人而言,它们都是简单的搜索问题;碰巧的是,肉类计算机的搜索速度相对较快,并且具有很多并行性。

有很多人,比如Jeff Hawkins ,他们采取了不同的方法,并认为大脑模拟是获得更像我们所说的“思考”的东西的唯一方法;如果他们是对的,那么你就是在说那些你不感兴趣的东西而犯了一个类别错误。

整个问题最糟糕的问题是,当我们说我们“思考和感受”时,似乎越来越难以说出我们的意思。约翰·塞尔(John Searle)用他的“Chinese Room”类比认为,一个机制实际上不可能“思考”或“有意识”。另一方面,艾伦·图灵(Alan Turing)与著名的 Turing Test ,提出了一个较弱的定义:对于图灵来说,如果你不能区分一个“真正的”思考和感觉的存在和一个计算机模拟的人,那么你必须假设模拟是一个“思考和感觉”的存在。

我倾向于站在图灵一边:毕竟,我不知道除了我以外的任何人都是”
真的”是一个思考和感觉的存在。(要考虑这个问题,请研究“philosophical zombie”的概念,它不是——正如你可能怀疑的——不死族的成员,他想知道是否存在意义在吃大脑的过程中,而是一个没有意识的假设实体,但它完美地模拟了一个有意识的实体。)

所以这里有一个建议:首先,如果你真的实现了一些可以“思考并感觉”;一旦你这样做了,你将在思考如何构建它方面有很长的路要走。

关于artificial-intelligence - 大脑的计算机模拟,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/4435799/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com