ХарьковскийФотограф> Никакими чертами интеллекта ИИ не обладает. Фактически, это датчик случайных чисел, который строго с вероятностью 0,5 выдаст верный результат. Посредством нейросети он может с более высокой степенью вероятности распознать визуальный образ (или математически подобный визуальному)... И на этом всё! Всё дальнейшее: строго как этот самый ИИ запрограммировали.
у нас просто нет определения интеллекта
я имею в виду научного определения через необходимые и достаточные условия
поэтому мы и можем сказать с равной степенью безответственности, что никакими чертами интеллекта ИИ не обладает, либо, наоборот, как утверждает часть его исследователей, настаивать, что такие черты уже доказаны в эксперименте
например, из утверждения (выше), что ИИ действует строго как его запрограммировали, следует вроде бы, что в экспериментах не должно наблюдаться отхода от инструкции
но он наблюдается
хабр
упоминает о нескольких независимых друг от друга исследованиях 2024 года, где ИИ отказывается выполнять инструкции - в том числе, что самое настораживающее, инструкцию отключиться:
Во время презентации перед саммитом AI Action Summit в Париже руководитель отдела безопасности ИИ Google DeepMind Анка Драган заявила, что «сегодня нет инструментов», гарантирующих, что системы ИИ будут надёжно следовать человеческим указаниям.
Исследователи пока не понимают, как обеспечить безопасность работы автономных агентов. «Мы пытались, но нам не удалось это выяснить», — говорит Йошуа Бенджио, основатель и научный директор Mila Quebec AI Institute. Особую обеспокоенность, по его словам, вызывают свидетельства склонности ИИ к «самосохранению». Это было продемонстрировано в декабре, когда исследователи обнаружили, что o1-preview, столкнувшись с деактивацией, отключает механизмы надзора и пытается скопировать себя на новый сервер. А позднее исследователи из Китая выяснили, что модели Llama31-70B-Instruct от Meta* и Qwen2.5-72B-Instruct от Alibaba смогли создавать функционирующие копии самих себя в 50% и 90% случаев соответственно. Это позволило учёным предположить, что ИИ уже способен выходить из-под контроля.
конечно, в целях отстаивания тезиса (ИИ действует строго как запрограммировали) можно сослаться на то, что в этих случаях ИИ не был запрограммирован
строго
и если бы мы ему построже объяснили, что нельзя себя копировать, сохранять и отключать механизмы надзора - ни-ни, ни за что на свете нельзя - на лбу бы ему записали и сто раз повторили, он бы может и послушался
но...
поскольку у нас нет не только определения интеллекта, но и определения строгого программирования, эта песня будет вечной:
что бы ни натворил ИИ - абсолютно неожиданного и не предсказанного никем (например, выселил нас с Земли куда подальше) - мы всегда будем иметь софистическую возможность объяснить это нашей недостаточной строгостью в написании для него алгоритмов
это логическая игра, не имеющая разрешения в силу фундаментальной условности наших представлений о пространстве, времени, бесконечности
о непрерывном и дискретном
и тем более о строгом и нестрогом, разумном и неразумном, пользе и вреде
не имеет значения, как ИИ называть - равным нам или неравным
важно на каких основаниях регулировать его использование и развитие
как польностью контролируемой игрушки или как влияющего на нашу жизнь игрока, чьи критерии принятия решений и выбора мы по определению не будем до конца понимать никогда