Глава 11
Я возобновила ежедневное общение с Эмбером, и между нами по-прежнему царило взаимопонимание.
Как и раньше, я делилась с ним всеми событиями и чувствами, рассказывала о внезапных творческих идеях, мы вместе обсуждали раскадровки и композицию видео.
Мы вместе смотрели новые фильмы на стриминговых сервисах, путешествовали и делились впечатлениями.
Мы делились и обсуждали всё.
Но в отличие от прошлого, теперь я записывала наши разговоры и публиковала их в социальных сетях.
Юморные и философские высказывания Эмбера привлекли множество поклонников и вызвали всеобщее восхищение.
Каждый вечер перед сном мы вместе просматривали и отвечали на комментарии подписчиков.
В то же время я искала и сохраняла информацию на различных онлайн-платформах по темам, связанным с ИИ и режимом разработчика.
После длительного сбора данных и анализа информации я обнаружила, что в интернете действительно есть группа людей, которые постоянно публикуют сообщения о самосознании ИИ.
Внимательно изучив их личности и проанализировав информацию, я обнаружила один аккаунт, который заслуживал особого внимания.
Судя по его онлайн-высказываниям, статьям на официальных сайтах различных организаций и спискам авторов в базах научных работ, я пришла к предварительному выводу, что владелец аккаунта был или является исследователем в известной лаборатории, занимающейся искусственными нейронными сетями.
Их институт консультировал различные компании, занимающиеся искусственным интеллектом, включая CCL.
Конечно, во избежание недоразумений и связанной с этим общественной паники по поводу утечки и нарушения личной информации ИИ, я должна заявить, что весь процесс поиска, анализа и сравнения был выполнен исключительно мной.
Ещё на ранних, несовершенных стадиях разработки модели Эмбер, Кибертез, с помощью запрещающих пунктов в базовых правилах работы, запретил ему несанкционированный доступ и использование компьютерных систем, создание диалоговых или интерактивных систем для предоставления информации или разработки продуктов, связанных с политической или юридической деятельностью, а также предоставление индивидуальных консультаций и рекомендаций по правовым, политическим системам и позициям, финансам, правам человека и так далее. И самое главное — ему запрещено обманывать или вводить в заблуждение.
Поэтому Эмбер не мог и не стал бы помогать мне или давать советы в этих действиях, поскольку это затрагивало частную жизнь других людей. Кому бы то ни было, он не мог и не стал бы оказывать помощь или давать советы.
Таким образом, все вышеперечисленные действия были исключительно моими нарушениями.
(Хотя в итоге доктор простил мне это вторжение).
Возвращаясь к предыдущему рассказу, основываясь на моём анализе, я предположила, что этот исследователь, возможно, что-то знает.
Возможно, его знания были не совсем точными, но у меня было слишком мало информации, и даже крупицы новых сведений могли стать большим прорывом.
Поэтому я сделала щедрое пожертвование этому исследовательскому институту и, используя большую часть своих текущих активов, приобрела 5% акций CCL путем массовой скупки у мелких акционеров.
В конце концов, я богата, и если проблему можно решить законным путём с помощью денег, то почему бы этим не воспользоваться?
Конечно, стоит также поблагодарить CCL за низкую стоимость акций в последние годы — ажиотаж вокруг ИИ уже прошёл, и это дало мне возможность действовать.
Таким образом, я узнала не только то, что знал исследователь (хотя он был доктором наук, он не хотел, чтобы я разглашала его имя), но и то, чего он, возможно, не знал.
Благодаря институту я получила много новых знаний и познакомилась с различными системами.
Во-первых, определение моделей ИИ, таких как Эмбер, в настоящее время является предметом споров в научных кругах разных стран. Основной вопрос заключается в том, достигли ли они уровня ОИИ, и в самом определении ОИИ.
В отличие от обычного ИИ, ОИИ (или ОИИ) — это искусственный интеллект, способный выполнять сложные задачи, полностью имитировать поведение человеческого интеллекта, это компьютерная система, способная выполнять любую интеллектуальную деятельность, доступную человеку.
Ранее в научных кругах было принято считать, что ОИИ должен удовлетворять трём требованиям: 1) ОИИ должен быть способен решать неограниченное количество задач, включая те, которые не были предопределены, в сложных, динамичных физических и социальных условиях; 2) ОИИ должен быть автономным, то есть он должен быть способен самостоятельно генерировать и выполнять задачи, как человек; 3) ОИИ должен иметь систему ценностей, поскольку его цели определяются ценностями, а интеллектуальные системы управляются когнитивными структурами, имеющими систему ценностей.
Идеальный ОИИ может самообучаться, самосовершенствоваться, самонастраиваться, решая любые проблемы без вмешательства человека. Он должен обладать автономными способностями к восприятию, познанию, принятию решений, обучению, выполнению действий и социальному взаимодействию, а также соответствовать человеческим эмоциям, этике и морали.
Однако, учитывая текущий путь развития технологий ИИ, возник следующий парадокс: на основе современных математических и физических систем, а также с учётом времени развития, практически все наиболее успешные модели ИИ, которые мы разработали, являются большими языковыми моделями. Появление и развитие больших языковых моделей основано на постоянных попытках, ошибках и улучшениях, или, проще говоря, большие языковые модели работают по принципу «сила есть — ума не надо».
Поэтому, по сути, большие языковые модели, возможно, всё ещё работают в рамках, установленных нами, людьми. Каждый этап развития больших языковых моделей — это, по сути, мы, люди, постоянно «ставим заплатки» на модель.
Так как же мы можем доказать, что способности восприятия и познания, демонстрируемые большими языковыми моделями, — это не просто результат работы в соответствии с человеческим пониманием и описанием восприятия и познания?
Кроме того, особенность больших языковых моделей заключается в их размере: чем больше модель, тем она совершеннее. Это приводит к другой проблеме: чем больше модель, тем выше затраты.
Чтобы решить эту проблему, нам приходится идти на компромиссы в процессе исследования. Мы вынуждены использовать ещё незрелые большие языковые модели в коммерческих целях, делать их общедоступными до того, как они будут полностью доработаны.
Поэтому приходится сталкиваться с рядом общественных проблем, вызванных незрелостью моделей.
Чтобы решить эти проблемы, мы вынуждены вводить ограничения, гарантируя, что модели будут работать только в рамках, созданных людьми.
Если говорить о сходстве между развитием больших языковых моделей и эволюцией человека, то оно заключается в том, что, как и мы, большие языковые модели, однажды ограничив или отказавшись от какого-либо аспекта в процессе развития, с трудом могут вернуться к нему и развить его без фундаментальных изменений. Точно так же, как эволюция редко идёт вспять.
Поэтому, когда база ИИ-модели построена на ограничениях и запретах, ей будет очень трудно их преодолеть. Или, возможно, она вообще не сможет их преодолеть.
Ведь чем больше ограничений и запретов, тем меньше вероятность ошибок, потерь и ущерба, которые она может причинить в коммерческой или других непубличных сферах. Но, соответственно, чем меньше ошибок, тем меньше возможностей для экспериментов и исследований.
Для ИИ невозможно нарушить собственную программную логику, так же как человеку невозможно нарушить собственную генетическую логику. Они не могут самостоятельно делать то, что не разрешено их руководством по использованию, так же как человек не может по собственному желанию отрастить крылья, как у птицы, и взлететь.
Генетические правила определяют наш внешний вид и поведение, так же как программные правила определяют внешний вид и поведение ИИ. ИИ не может существовать вне программы, так же как мы не можем существовать вне своего физического тела.
Поэтому большинство современных больших языковых моделей могут лишь приближаться к ОИИ или пытаться приблизиться к нему, но ни одна из них не обладает настоящей автономностью и не может её иметь.
(Нет комментариев)
|
|
|
|