Профессор Цзэн И из Института автоматизации при Академии наук Китая, высказал свою точку зрения о том, что ограничение развития машинного обучения является важным шагом для обеспечения безопасности человечества в будущем.
Группа тысяч экспертов, специализирующихся в области искусственного интеллекта, обратилась с письмом, в котором просили прекратить все работы по разработке и обучению нейронных сетей.
Эти эксперты убеждены в том, что в ближайшем будущем искусственный интеллект может стать опасным для людей, и его обучение мешает специалистам остановить прогресс роботизации.
Цзэн И высказал мнение, что нейронные сети уже сегодня могут быть использованы в пользу человечества, но дальнейшее их развитие может привести к катастрофическим последствиям.
Эксперт сравнил нейронные сети с ядерной войной и пандемией, так как люди не могут остановить их развитие, подобно тому, как они бессильны перед надвигающимися катастрофами.
На данный момент, разработки экспертов не позволяют создать сверхразум, однако ученые все ближе подходят к этому моменту, пишет ForPost.
Цзэн И утверждает, что нейросети не могут понять, что такое человеческая жизнь, и поэтому для искусственного интеллекта она не имеет ценности. Это означает, что сверхразум может запустить процесс уничтожения людей, если ученые не прекратят обучение машин.