Сложности с китайским?
Спросите у опытного преподавателя!


最近 一 位 前 谷歌 高级 工程师 表示 , 公司 的 一 款 人工 智能 系统 已经 拥有 了 人格 , 可以 像 人类 一样 思考 和 推理 了 。
这 是 谷歌 创建 的 一 个 名 叫 LaMDA 的 人工 智能 项目 , 它 的 功能 是 创造 聊天 机器人 , 比如 你 打开 网站 后 , 那些 不时 弹 出来 的 聊天 框 就 是 在 使用 聊天 机器人 的 功能 , 它 可以 为 你 提供 一些 你 可能 需要 的 简单 服务 。 而 谷歌 希望 这些 聊天 机器人 可以 尽 可能 地 模拟 真实 的 人类 对话 。
据说 , 这 位 工程师 跟 这 个 聊天 机器人 进行 了 一 场 谈话 , 他 提出 了 一 系列 问题 , 得到 的 回答 从 各 方面 看 都 很 有意思 。
比如 , 工程师 问 : 你 喜欢 《 悲惨世界 》 的 故事 吗 ? 聊天 机器人 回答 : 它 为 其中 的 一 个 角色 感到 难过 。 它 也 说 自己 害怕 死亡 , 害怕 被 关 机 , 甚至 说 了 自己 对 幸福 和 悲伤 的 理解 。
这些 回答 比 我们 以为 的 聊天 机器人 要 高级 很多 , 这 不免 让 人 感到 惊讶 , 甚至 恐惧 。 我们 现在 面对 的 聊天 机器人 是 有 人格 的 吗 ?
谷歌 据 此 也 进行 了 回应 : 我们 人类 平时 的 沟通 就 会 详细 地 说明 主题 , 而 这 也 是 聊天 机器人 在 做 的 。 经过 无数 次 的 实验 , 他们 并 没 找 到 任何 人工 智能 出现 人格 的 迹象 。
谷歌 同时 指控 这 位 高级 工程师 泄露 了 公司 的 重要 信息 , 而 这 位 工程师 说 , 他 只 是 分享 了 和 同事 的 对话 , 并 没有 泄露 公司 信息 。 因为 他 提出 的 其中 一 个 问题 是 : 你 希望 我 以 什么 身份 对待 你 ? 聊天 机器人 回答 说 : 像 对待 一 名 谷歌 员工 一样 。
谷歌 [gǔ gē] Гугл, Google (американская компания)
工程师 [gōng chéng shī] инженер
人工 [rén gōng] искусственный; рабочий; работник
智能 [zhì néng] ум, интеллект; разум
系统 [xì tǒng] система; порядок; формация
拥有 [yōng yǒu] иметь, владеть
人格 [rén gé] личность; характер
人类 [rén lèi] человечество
思考 [sī kǎo] размышлять, продумывать
推理 [tuī lǐ] умозаключение, вывод
创建 [chuàng jiàn] учреждать, основывать
项目 [xiàng mù] пункт, статья, рубрика
功能 [gōng néng] функция
创造 [chuàng zào] создавать, творить
不时 [bù shí] в любое время
弹 [dàn] отскакивать
框 [kuàng] рамка
服务 [fú wù] обслуживание
尽 [jìn] выполнять до конца
模拟 [mó nǐ] подражать, копировать
真实 [zhēn shí] истинный, действительный
据说 [jù shuō] как говорят; по словам
谈话 [tán huà] разговор
提出 [tí chū] вытаскивать, выдвигать, представлять
系列 [xì liè] серия, коллекция
得到 [dé dào] получить
有意思 [yǒu yì sī] интересный
悲惨世界 [bēi cǎn shì jiè] «Отверженные» (роман)
角色 [jué sè] роль
感到 [gǎn dào] чувствовать, ощущать
死亡 [sǐ wáng] смерть
悲伤 [bēi shāng] печаль, убиваться
不免 [bù miǎn] неизбежно
惊讶 [jīng yà] удивлять
恐惧 [kǒng jù] страх, бояться
面对 [miàn duì] сталкиваться с…
回应 [huí yìng] откликнуться
沟通 [gōu tōng] связь, общаться
主题 [zhǔ tí] главная тема
无数 [wú shù] бесчисленный
实验 [shí yàn] эксперимент, испытывать
迹象 [jì xiàng] знак, след
同时 [tóng shí] одновременно; в то же время
指控 [zhǐ kòng] обвинять
泄露 [xiè lòu] разгласить, раскрыть
信息 [xìn xī] информация
分享 [fēn xiǎng] поделиться
身份 [shēn fèn] положение, статус
对待 [duì dài] подход; отношение
员工 [yuán gōng] сотрудник, персонал
Недавно бывший старший инженер Google рассказал, что одна из систем искусственного интеллекта компании обрела индивидуальность и может думать и рассуждать, как люди.
Это проект искусственного интеллекта под названием LaMDA, созданный Google. Его функция заключается в создании чат-ботов. Например, после того, как вы открываете веб-сайт, те окна чата, которые появляются время от времени, используют функции чат-ботов. Они могут обращаться для облегчения обслуживания. И Google надеется, что эти чат-боты смогут максимально имитировать реальные человеческие разговоры.
Сообщается, что инженер побеседовал с чат-ботом, в ходе которого задал ряд вопросов и получил ответы, интересные во всех смыслах этого слова.
Например, инженер спросил: «Вам нравится роман «Отверженные»?» Чат-бот ответил: «Мне стало жаль одного из персонажей». Он также сказал, что боится смерти, боится быть отключенным, и даже рассказал о своем понимании счастья и печали.
Эти ответы гораздо более продвинуты, чем то, что мы думаем о чат-ботах, которые не могут не удивлять и даже пугать людей. Есть ли у чат-бота, с которым мы сейчас столкнулись, личность?
Google также отреагировал на такое поведение: «В нашем ежедневном общении мы, люди, будем подробно объяснять тему, и это и будет тем, что сделает чат-бот. После бесчисленных экспериментов не было обнаружено никаких признаков личности в искусственном интеллекте.»
Google также обвинил старшего инженера в утечке важной информации компании, но инженер заявил, что он только делился разговорами с коллегами и не разглашал информацию о компании. Потому что один из вопросов, которые он задал, был: «Как ты хочешь, чтобы я к тебе относился?» Чат-бот ответил: «Относитесь, как к сотруднику Google».