Ведущие ученые призывают к ответственной разработке ИИ

Ведущие ученые призывают к ответственной разработке ИИ

Стивен Хоукинг, Элон Маск и другие известные фигуры из области науки и технологий, подписали открытое письмо, призывающее к ответственной разработке ИИ, дабы убедиться, что они будут нести пользу обществу.

Само письмо было написано Future of Life Institute, в совет которого входят: Стивен Хоукинг, Сэр Мартин Рис, Элон Маск, Джордж Черч и Ник Бостром. Они пишут:

"Существует общий консенсус, что развитие ИИ идет стабильно, и, что воздействие на общество, скорее всего, увеличится. Потенциальная польза обширна, так как все, что предлагает цивилизация является продуктом человеческого интеллекта; мы не можем предсказать то, что мы можем достичь когда этот интеллект будет усилен инструментами, которые способен открыть ИИ, но избавление от заболеваний и бедности – вполне возможны. В связи с большим потенциалом ИИ, важно двигаться к полезным достижениям и избегать возможные негативные последствия."

10 Комментариев

  • Tony_Corvus
    Комментарий скрыт. Показать

    А то потом придётся строить "оперативные корпусы земного флота" ИКК.

    0
  • Sunich
    Комментарий скрыт. Показать

    Через овер 9000 лет, спаситель планеты Земля ворвётся в офис в цитадели зла, какого ни будь супер злодея, который руководит армей дронов, киборгов и владеет космическим флотом и так с укоризной скажет ему: "Что ж ты ирод окаянный делаешь? Ты же Хоккингу обещал!"

    0
  • gsk24
    Комментарий скрыт. Показать

    Да появится там копия скайнета (Терминатор), что там такого-то...

    0
  • celeir
    Комментарий скрыт. Показать

    ученые призывают к ответственной разработке ИИ

    а мы только и учим, что харвестеры атаковать (

    0
  • Комментарий скрыт. Показать

    Из очевидного: в открытом письме ещё говорится, чтобы обратили внимание на военные разработки, ну собственно они должны быть под контролем человека. Поэтому если все так и будет, никакого а-ля терминатор и т.п не случится.

    0
  • Bes-bega
    Комментарий скрыт. Показать

    Ну у этой медали как говорится две стороны,аналогия с мирным и не мирным атомом например.А вообще последствия могут быть не предсказуемые,во что это в конечном счете может вылиться,не посчитает ли ИИ в один не прекрасный момент,что хомо сапиенс на этой планете лишний,что он типа раковой опухоли и от него пора спасать планету.

    0
  • Stel_Rat
    Комментарий скрыт. Показать

    ...пшш.... (помехи)....№;"@.... -сем... -Всем кто меня слышит ...шшш... говорит лидер, последнего человеческого сопротивления...пшш#@... -"Все, кто меня слышит – вы и есть Сопротивление"...Джон Коннор..пшшш.... :)))

    0
  • Комментарий скрыт. Показать

    но избавление от заболеваний и бедности – вполне возможны

    Нет не возможны.
    У же сейчас объемы производства товаров и добычи ресурсов позволяют решить проблему бедности, но проблема бедности только растет. Пролема лежит не в плоскости технологий, а в плоскости социальной структуры общества и форм управления распределением ресурсов.

    Проблема заболеваний тоже не решаема. Каждый раз решая вопрос тех или иных болезней будут открываться и создаваться новые болезни. А устранение таких болензней как Рак возможно только на уровне "ремонта ДНК", а это откроет новые проблемы и болезни.

    0
  • Dionis871
    Комментарий скрыт. Показать

    Мне кажется, когда родится Великий ИИ, мы вступим в эру утопий =)

    0
  • Sheitan
    Комментарий скрыт. Показать

    Пока конторы рубят деньгу вагонами - плевали они на Хокинга и компанию.
    Разумеется, если они вдруг не решат пропеарить какой-нибудь денежный проект.

    0
Войдите на сайт чтобы оставлять комментарии.