Получи случайную криптовалюту за регистрацию!

​​Основная мысль из статьи нового номера The Economist про AI | AGE OF CRYPTO

​​Основная мысль из статьи нового номера The Economist про AI

До недавнего времени все новые технологии создавали дополнительные рабочие места. Компьютеры и смартфоны дали рабочие места программистам. Даже социальные сети создали блогеров и монетизацию создаваемого контента. Но после выхода ChatGPT и автопилотов всё изменилось, с этого времени новые технологии, вероятно, начнут отбирать рабочие места и меньше создавать новых. Но есть нюансы...

Если делать проекцию на примере людей, то продвинутый человек способен причинять вред в огромных масштабах, создавая яды или вирусы, или убеждая людей совершать террористические акты. Причём у него не обязательно должен быть злой умысел. Исследователи опасаются, что будущие AI могут иметь цели, которые не совпадают с целями их создателей-людей.

Тут просится вывод, что людей начинают контролировать со школы, потом университеты и контролировать их деятельность с помощью предоставления рабочих мест, где они себя проявляют.

Великобритания разрабатывает регулирующее законодательство так, чтобы превратиться в "сверхдержаву искусственного интеллекта". Америка придерживается аналогичного подхода, хотя администрация Байдена сейчас запрашивает мнение общественности о том, как мог бы выглядеть свод правил.

ЕС занимает более жесткую позицию. Предлагаемый закон классифицирует различные виды использования по степени риска и требует все более строгого мониторинга и раскрытия информации по мере того, как степень риска возрастает, скажем, от музыкальных рекомендаций до автопилотов. Некоторые виды использования искусственного интеллекта вообще запрещены, такие как подсознательная реклама и удаленная биометрия. Фирмы, нарушающие правила, будут оштрафованы. По мнению некоторых критиков, эти правила являются слишком жесткими.

Но есть и те, кто говорит, что необходим еще более строгий подход. Правительствам следует относиться к AI как к лекарствам, с выделенным регулирующим органом, строгим тестированием и предварительным одобрением перед публичным релизом. Китай делает кое-что из этого, требуя от фирм регистрировать продукты и проходить проверку безопасности перед выпуском на рынок. Но безопасность может быть меньшим мотивом, чем политика, возможно ключевым требованием является то, чтобы продукция отражала "основную ценность социализма".

Как бы правительства не регулировали на своих территориях AI, будут государства, где нет денег на подобные регуляции, им главное приток инвестиций и налогов, и они станут "оффшорными зонами" для развития и внедрения технологий AI. Данные это новая нефть, придёт время и мы поймём, что даже не знаем какие данные собирает про нас AI и в каком формате их записывает.