人工智能公司正在窃取群众,并躲在“培训”的语言后面

谁是厄休拉。乐高 曾经写过“错误的问题没有正确的答案。”当AI讽刺可以理解时,我们的人类读者立即提出了观点。要解决问题,您需要专注于重要的事情。
这是正在进行的辩论的主要问题,最近加入了尼古拉斯·克里尔(Nicholas Crill)教授,即人工智能模型是否与人类“学习”。
简单的答案,在埃里克·J·拉尔森(Eric J Larson)的书中很好地拼写 “人工智能神话”,” 他们不是。如果他们被迫处理不确定性或不完整的信息,他们将无法管理或产生幻想,他们就会停滞不前,缺乏对自己的同情和理解的任何真正的概念。他们可以复制和使用几乎无限的卷数据,但是他们不能简单地从像人类这样的信息中提取或插图新真理。
我问微软的AI,副作用:“人工智能也是人们争论的原因吗?”这是我收到的答案:
“做出AI决策和预测AI的人工智能取决于大型数据和算法
因为人类的运动是Moiya Mctier 解释通过提取实际的创造力模式和连接,大型数据集比处理要多得多。这是“从生物学上的生命经验,地理,家庭和时刻的农作物和文化使我们变成一个人”
因此,很明显,AI比人类学习并以多种方式从根本上产生产出。
但是,我们这些人与AI一起生活在现实世界中,并与我一起对待他们,包括我在内的我,包括我,他们已从互联网上删除并在未经任何同意的情况下以AI模型喂养,也很明显,这一无菌哲学家的争端并不那么重要。根据Laguin的说法,我们应该问的真正的问题是AI做什么 – 花费很有价值。
为了开发其模型并启动其模式本性算法,AI公司绝对必须重现机器来重现受版权保护的工作或从版权任务中创建新任务是不稳定的。他们在大型网络上分发工作。根据《联邦法》,他们保留给作家。
通常,想要参与此类活动的公司只会从作家那里获得许可。但是,AI公司显然竞争对手决定不许可这些任务,而是通过使用这些任务,有效地为这些版权设定了价格。
这是对世界创造性的遗产的广泛折旧 – 对真实人民来说是失去的机会,也是巨大的就业成本。更重要的是,它将创造出一种愚蠢而衍生的文化,如果没有检查太长,那么真正的新鲜或新颖的创作应该是下一代的空洞。 AI模型可以生产它们已复制和分析的不同版本的不同版本(从适当的来源中重新配备了各种来源,以避免对隐身的即时责任),但它们不能破坏霉菌并给我们一些新的东西。
可悲的是,AI传教士似乎被确定在人类学中被确定为商业AI的美丽小型机器人。他们将语言重建为“数据”,并将质量复制为“训练”,就像AIS宠物一样。这是一个童话故事,旨在隐藏一万亿美元的卡特尔和一个卡特尔,该卡特尔因大规模版权侵犯投资者而犯下或原谅。
也许该游戏会成为AI的傻瓜,但我们人类通过它看到它。
大卫·洛里(David Lori)是一位数学家,作家,音乐家,制作人和乐队饼干和露营者范·比特霍文(Camper Van Bithoven)的歌手。