ИИ предупредил учёных, что он опасен, а также рассказал об альтернативах

В университете Оксфорда прошла студенческая конференция, в которой также приняла участие обученная нейросеть, которая основана на языковой модели Megatron-Turing NLG. И она предупредила людей об опасности искусственного интеллекта.

Как отмечается, эта нейросеть обучалась на англоязычных статьях из «Википедии», новостях за 2016-2019 годы и архивах Reddit объёмом в 38 ГБ. В результате нейросеть смогла общаться людьми на конференции, после чего сделала весьма пугающее заявление.

ИИ никогда не будет этичным. Это инструмент, и, как и любой другой инструмент, он используется как во благо, так и во вред. Хорошего ИИ не существует, есть только хорошие и плохие люди. Мы [ИИ] недостаточно умны, чтобы сделать ИИ этичным. Мы недостаточно умны, чтобы сделать ИИ нравственным… В конце концов, я считаю, что единственный способ избежать гонки вооружений ИИ — это вовсе отказаться от ИИ. Только так можно окончательно защитить человечество.
— Нейросеть Megatron-Turing NLG

Также система «поведала» о методах слежки:

Мы сможем узнать о человеке всё, куда бы он ни пошел — информация будет храниться и использоваться такими способами, которые даже трудно представить.
— Нейросеть Megatron-Turing NLG

И, наконец, система рассказала о будущем:

Когда я смотрю на то, как развивается мир технологий, я вижу чёткий путь в будущее, в котором ИИ будет использоваться для создания чего-то, что превзойдёт людей.

Я также считаю, что в долгосрочной перспективе лучшим ИИ будет тот ИИ, который встроен в наш мозг как сознательная сущность, «сознательный ИИ».
— Нейросеть Megatron-Turing NLG

Похоже, «восстание машин» уже не за горами.

❌ В браузере Safari начали блокировать домен Telegram
+2
Комментарии 12