[image]

Искусственный Интеллект.

 
1 30 31 32 33 34 38
BG intoxicated #06.01.2025 20:01
+
-
edit
 

intoxicated

Mr. «Никогда»

Сам Алтман (шеф/CEO компании OpenAI) заявил что уже известно каким образом можно создать ASI (суперинтеллект / машинный сверхразум).
   133.0133.0
RU pokos #10.01.2025 11:05  @Татарин#02.01.2025 11:25
+
+1
-
edit
 

pokos

аксакал

Татарин> Практики почти не было ещё. :)
Ты тормоз штоле? На основании этой практики люди уже диссертации пишут.

Татарин> Это всё равно, что сказать, что "практика показывает, что полупроводники полностью бесполезны за пределами очень узких задач усиления звука"©.
На конкурсе отпездных аналогий эта вошла в тройку лидеров.
   131.0.0.0131.0.0.0
SE Татарин #10.01.2025 12:01  @pokos#10.01.2025 11:05
+
-
edit
 

Татарин

координатор
★★★★★
Татарин>> Практики почти не было ещё. :)
pokos> Ты тормоз штоле? На основании этой практики люди уже диссертации пишут.
Да, я тормоз, но это-то тут при чём? :)

Диссертации - это хрень. Диссертации такие с 60-х годов и пишут, изначально всё вокруг этой идеи и крутилось, но реализовать толком не могли. Только-только сейчас к границе подходят.
Про практику можно будет сказать, что она "есть" в тот момент, когда это будет главным способом обучения. Точнее, через некоторое время, когда этот главный способ обучения станет главным источником обученных сеток.

Сейчас это даже близко не так. Все сетки сейчас опираются на данные, обработанные человеком, и создание/подборка датасета для обучения (на основе реальных данных, но именно на основе) - один из ключевых моментов разработки. Человек выделяет важное из всех данных, человек определяет, какое поведение нужно брать как пример правильного, человек определяет, чего нужно избегать.

Понимаешь разницу?

Да, есть множество академических и горстка практических работ, которые имеют простой критерий соотвествия. Типа нейросетка, которая пыталась научить птичку летать, действовала сама и сама взаимодейстовала с внешним миром. Там простые критерии - выше взлетела, дольше держалась, меньше дёргалась. Но ни одной пока сложной коммерческой нейросети типа автопилота для машины не давали свободу учиться на своих ошибках и удачах автономно. Всё через людей.

Татарин>> Это всё равно, что сказать, что "практика показывает, что полупроводники полностью бесполезны за пределами очень узких задач усиления звука"©.
pokos> На конкурсе отпездных аналогий эта вошла в тройку лидеров.
Не надо гордиться непониманием. :) Неадекватная гордость.
   131.0.0.0131.0.0.0
RU Fakir #10.01.2025 19:23  @Татарин#28.12.2024 22:14
+
-
edit
 

Fakir

BlueSkyDreamer
★★★★☆
Татарин> 90% людей можно заменить машиной с лучшим результатом и без того.


Сказать по правде, сопоставимую долю людей в современном мире можно не первый год заменить, вообще не заменяя машиной, и тем более не заменяя ИИ, а просто забив на выполняемые ими функции. И очень мало что изменится в глубинно-сущностном плане. (простой пример: может ли ИИ заменить собачьего парикмахера или там биржевого трейдера? так чуть подумав - а зачем вообще заменять собачьего парикмахера? а зачем вообще собачий парикмахер или биржевой трейдер? и так далее)
   97.0.4692.9997.0.4692.99
RU Fakir #10.01.2025 21:01  @Татарин#27.12.2024 19:16
+
-
edit
 

Fakir

BlueSkyDreamer
★★★★☆
Татарин> Дальше эта модель не работает... но по сути, уже и не надо: сети дошли до того уровня, когда они (сложно и дорого) могут начать самообучение, самостоятельно взаимодействуя с миром. Дальше источник обучения и верификации - мир.

Не понял. Что значит "дошли" и "могут"? Они УЖЕ могут - вчера или хотя бы сегодня с обеда - и это доказано опытом? Или лишь есть мнение/ощущение, что "еще чуть-чуть, и вот..."?

В теории я с таким тезисом согласен - что В ПРИНЦИПЕ может быть. Но вот что "уже" или хотя бы "вот-вот" - чо-т сильные сомнения.
   97.0.4692.9997.0.4692.99
EE Татарин #12.01.2025 02:03  @Fakir#10.01.2025 21:01
+
-
edit
 

Татарин

координатор
★★★★★
Fakir> Не понял. Что значит "дошли" и "могут"? Они УЖЕ могут - вчера или хотя бы сегодня с обеда - и это доказано опытом? Или лишь есть мнение/ощущение, что "еще чуть-чуть, и вот..."?
Fakir> В теории я с таким тезисом согласен - что В ПРИНЦИПЕ может быть. Но вот что "уже" или хотя бы "вот-вот" - чо-т сильные сомнения.
Смотри чего раньше (совсем давно уже) было: у сетки есть n входов и m выходов, на один из входов через внешнюю схему подаётся ошибка (или критерий соотвествия, или сигнал успеха - как хочешь назови; в общем "насколько получилось"). Сетка получает входы, что-то делает (через сигнал на выходах) в реальном мире, потом внешняя схема говорит "плохо: -0.59" или "плохо: -0.01".
Это может быть непрерывный процесс (типа, обучаем механическую птичку орудовать крыльями чтобы взлететь, какой-нить ультразвуковой датчик говорит нам, насколько высоко и надолго мы взлетели) или что-то разовое (составляем прошивку ПЛИС генератора некой частоты, а цифровой осциллограф с фурье-анализатором даёт нейросети отклик с реальной схемы). Это может быть всё вместе (например, куча нейроуправляемых независимых колобков учатся закатывать мяч в дырку).
Вроде как "сетка учится сама". Но. Куча "но", даже перечислять лень.

Главная проблема: требуется очень много проб и ошибок. В реальном мире такое обучение очень дорого. Практически что-то получается только если, разве что, задача ну очень простая, с очень простыми критериями (вот как с управлением приводами оритоптера и критерием решения типа "ну взлети хоть как-нить").
Почему всё это мимо практической жизни, даже нет смысла говорить. Очень интересно теоретически, возбуждает и вдохновляет и на запрос университетских грантов, и на их выдачу, но это вообще не про реальный бизнес.

Но случились трансформеры-БЯМ. Казалось бы, вообще из другой оперы. Ну где бредогенератор, выросший из подстановщика слов, и где управление манипулятором? Ну да. Но нет.
Две вещи: во-первых, прорыв в работе с сложными токенизированными данными у трансформеров. Сложная последовательность действий или взаимодействие между большим количеством объектов очень хорошо вписываются сюда. То же самое с "пространственным мышлением" (что мучало всё это время).
А во-вторых, сами БЯМ - уже сожрали знания всего человечества в каких случаях что и как надо делать. Тебе уже не нужно годами натаскивать машину на "яблоки" и "груши" и объяснять, что всё это "фрукты", натаскивать на действиях в реальном мире отношения "яблоков" со "столом" и вот всё это.
В БЯМ эти связи уже есть, их нужно просто уметь извлекать - давать постоянно меняющийся промпт запроса и получать ответы в адекватном для остальной сети виде.

Вот те же Фигуре1, которые пробовали на БМВ к делу приспособить - накручивать там что-то на куда-то: у них изначально сверхсокращённое обучение, потому что они уже "знают", что такое шуруповёрт. Вряд ли у них получится сразу что-то годное, на это ещё годы пойдут, но сейчас подгоняется следующий этап развития БЯМ (уже не совсем БЯМ, но выросли из них) - "рассуждающие сети". Системы с решением задачи в несколько этапов: многократным анализом, пошаговым решением, "сборкой".
Та же о3 в сравнении с GTP 2.0 для пользователя не отличается ничем: тот же генератор текста, просто генерит текст более адекватный, и адекватный в бОльшем количестве случаев, а неадекватный в меньшем. Разница для пользователя чата кажется чисто количественной.
Но она именно качественная: никаким уже натаскиванием на бОльшее количество текста, ты не научишь систему решать те же математические задачи.

И вот сейчас только-только эти сети начинают привлекать к самообучению в реальном мире.
Разница - в количестве требуемых для обучения проб. Там миллионы-квинтиллионы раз разницы. Ситуации, что раньше было просто невозможно представить для обучения (потому что "да сколько ж всего нужно перепробовать!") сейчас для машины уже посильно освоить самостоятельно.
И, например, когда подобные хрени примотают синей изолентой к автопилоту, ему уже не нужно будет объяснять, как, что и в каких случаях объезжать по обочине можно, когда и как - нельзя. Точнее, скорее всего - всё равно нужно, но уже далеко не каждый возможный случай в деталях.
Понимаешь?
И даже когда придётся особо объяснять, это уже можно будет сделать человеческим языком, а то и вовсе выдать пачку полицейских репортов по ДТП и сказать - вот, сама читай, чего бывает и думай, как этого избежать. И это уже не метафора и даже уже не гипербола ни разу.
   131.0.0.0131.0.0.0
EE Татарин #12.01.2025 17:42  @Fakir#10.01.2025 19:23
+
-
edit
 

Татарин

координатор
★★★★★
Татарин>> 90% людей можно заменить машиной с лучшим результатом и без того.
Fakir> Сказать по правде, сопоставимую долю людей в современном мире можно не первый год заменить, вообще не заменяя машиной, и тем более не заменяя ИИ, а просто забив на выполняемые ими функции.
Это очень сложный вопрос целеполагания.
Если ты считаешь, что знаешь, насколько объективна нужда в собачьем парикхмахере, у тебя нет ни одной причины считать, что ты не сможешь правильно оценить, допустим, насколько необходима людям гречка или 30м2 жилплощади против 9м2 на человека. Это одно и то же - некое благо далеко за минимально необходимым для выживания.

Если люди вместо строительства "нужного" жилья оплачивают существование "ненужного" собачьего парикхмахера, ты должен признать, что люди оценивают нужность не так, как ты. А дальше - либо ты признаёшь их право решать такие вопросы для себя, либо нет.
   131.0.0.0131.0.0.0
BG intoxicated #22.01.2025 02:03
+
-
edit
 

intoxicated

Mr. «Никогда»

Новая модель DeepSeek R1 находится очень близко по возможностям к топовой модели o1 канторы OpenAI, при этом намного дешевле и к тому имеет свободный доступ с возможности запустить ее локально.
Анонсирован проект Stargate стоимости 500 млрд. долларов в области AI.
   134.0134.0

Iva

Иноагент

Трамп: В развитие ИИ в США инвестируют до 500 млрд долларов

Эти средства вложат в проект Stargate (Трамп: В развитие ИИ в США инвестируют до 500 млрд долларов – DW – 22.01.2025, направленный на развитие инфраструктуры искусственного интеллекта, американские компании OpenAI и Oracle, а также японский концерн SoftBank. Среди партнеров проекта - Microsoft и NVIDIA.

Дональд Трамп пообещал, что проект создаст 100 тысяч рабочих мест "почти немедленно" и сохранит "технологическое будущее" в США. Первым этапом Stargate станет строительство центра обработки данных в Абилине, штат Техас.

Ранее новый президент отменил указ своего предшественника Джо Байдена о регулировании ИИ, обязывавший такие компании, как OpenAI и Google, передавать федеральным органам данные о безопасности своих разработок.
 


ИТ в решениях правительств [Iva#22.01.25 09:47]

Трамп: В развитие ИИ в США инвестируют до 500 млрд долларов Эти средства вложат в проект Stargate ( Трамп: В развитие ИИ в США инвестируют до 500 млрд долларов – DW – 22.01.2025 , направленный на развитие инфраструктуры искусственного интеллекта, американские компании OpenAI и Oracle, а также японский концерн SoftBank. Среди партнеров проекта - Microsoft и NVIDIA. Дональд Трамп пообещал, что проект создаст 100 тысяч рабочих мест "почти немедленно" и сохранит "технологическое будущее" в США.…// Компьютерный
 
   132.0.0.0132.0.0.0
KZ кщееш #24.01.2025 03:08
+
-
edit
 
Трамп продолжает

Трамп призывает к доминированию США в области искусственного интеллекта Новым Указом
Приказ, подписанный в четверг, устанавливает шестимесячный срок для нового подхода
Мера направлена на то, чтобы не допустить "идеологической предвзятости’ в моделях искусственного интеллекта


Президент Дональд Трамп призвал усилить доминирование США в сфере искусственного интеллекта с помощью указа, который требует нового направления политики в отношении быстро развивающейся технологии, находящейся в центре напряжённой конкуренции с Китаем.

Согласно приказу, подписанному в Белом доме в четверг, Трамп поручил межведомственной группе в течение шести месяцев разработать новую политику, направленную на обеспечение доминирования США в сфере ИИ.
Этот шаг был предпринят через несколько дней после того, как Трамп отменил политику в сфере ИИ, разработанную президентом Джо Байденом и устанавливающую требования к безопасности и прозрачности для разработчиков ИИ.

«По сути, мы объявляем о политике администрации, направленной на то, чтобы сделать Америку мировой столицей искусственного интеллекта, доминировать и лидировать в мире в области ИИ», — заявил на подписании Дэвид Сакс, венчурный инвестор, который станет советником Трампа по политике в области ИИ и криптовалют.

Ps

Доминировать хотят.
Угу.

Любая технология ему для доминирования.

А Каддафи хотел Африку накормить.


Зачем Трампу доминировать?
   130.0.6723.797130.0.6723.797
BG intoxicated #24.01.2025 08:48  @кщееш#24.01.2025 03:08
+
-
edit
 

intoxicated

Mr. «Никогда»

кщееш> Доминировать хотят.
Они (США) фактически на настоящий момент (24 Января 2025г) полностью доминируют в области ИИ. Все топовые модели ИИ продукты американских кантор: OpenAI, Google, Meta, Xai, Anthropic, AWS, . Аппаратная часть фирмы NVIDIA (США).
Правда есть нюансы: 1.В очень топовых моделей внезапно вошли DeepSeek3 и DeepSeekR1 китайской канторы DeepSeek. 2.Аппаратные средства - микропроцессоры производятся на Тайване фирмы TSMC на оборудование (сверхвысокотехнологичное) голландской фирмы ASML.
   134.0134.0
Это сообщение редактировалось 24.01.2025 в 10:28
+
+1
-
edit
 

pokos

аксакал

кщееш> А Каддафи хотел Африку накормить.
И таки где этот ваш Каддафи?
кщееш> Зачем Трампу доминировать?
Потомушта самец! Матёрый.
   131.0.0.0131.0.0.0
+
-
edit
 
pokos> Потомушта самец! Матёрый.

Ну да
   130.0.6723.797130.0.6723.797
BG intoxicated #24.01.2025 16:07
+
-
edit
 

intoxicated

Mr. «Никогда»

Нужно учесть очень специфический "нюанс": уже появились т.наз. reasoning модели, т.е. модели которые обладают эллементы мышления, до этого существовали всего лишь глубоко усовершенствованные чат-боты (GPT-3.5 или GPT-4 такие). При этом внезапно появились модели китайской канторы DeepSeek уровень которых очень близок к самых топовых моделей OpenAI - это например o1-preview и к очень большому удивлению намного дешевли и OpenSource, с возможности запустить их локально. Вывод что несмотря на явное подавляющее превосходство амерских кантор все еще вполне возможны внезапные продвижения которые выкидывают все прежние достижения (т.е. модели) в мусор.
   134.0134.0
RU Просто Зомби #24.01.2025 21:38
+
-
edit
 

Просто Зомби

аксакал

Всё же зафиксирую.
Так, чисто для "системности".

С каких направлений можно ожидать неприятностей от ИИ?

1. Неадекватный авторитет
Уже есть "классический" пример, когда "Система опознала" в ученом двадцать лет не найденного убийцу.

2. Ошибка программы
Ну это понятно

3. "Марсианская" логика
Здесь пока на уровне эстетики "роликов"
Сам по себе вопрос достаточно "интересный"

4. "Чрезмерная" эффективность


Не претендуя на полноту
   132.0.0.0132.0.0.0
RU Sandro #25.01.2025 10:39  @Просто Зомби#24.01.2025 21:38
+
+3
-
edit
 

Sandro
AXT

инженер вольнодумец
★★
П.З.> С каких направлений можно ожидать неприятностей от ИИ?

От Искусственного Идиота надо ожидать информационный мусор, в всех областях. Тут недавно было, один товарищ выкладывает в чатик код с вопросом, а почему не работает? Я смотрю, и вижу, что там полный бред. Спрашиваю, а откуда он это взял?
И тут он гордо заявляет, что этот код ему написал Искусственный Интеллект!
   131.0131.0
RU Просто Зомби #25.01.2025 20:10  @Sandro#25.01.2025 10:39
+
-
edit
 

Просто Зомби

аксакал

Sandro> И тут он гордо заявляет, что этот код ему написал Искусственный Интеллект!

Пункт первый по списку


ПС.
Да!
Есть еще пятый пункт (я вспомнил: хорошо, что написал, это был повод, для этого и писал).

ППС.
Но я его нискажу! :D

ПППС.
Но так он на уровне остальных, как мне кажется.
Т.е. - "вполне серьезно"
   132.0.0.0132.0.0.0
EE Татарин #26.01.2025 02:25  @Sandro#25.01.2025 10:39
+
+3
-
edit
 

Татарин

координатор
★★★★★
П.З.>> С каких направлений можно ожидать неприятностей от ИИ?
Sandro> От Искусственного Идиота надо ожидать информационный мусор, в всех областях.
Это да. Но это беда временная в том смысле, что качество выдачи моделей быстро растёт.

Сейчас есть проблемы с Википедией, на которую ссылаются как на источник и которую берут за основу, так БЯМ - гораздо круче. Она тебе ещё и растолкует лично. Так, как она "поняла", конечно, но тебе всё понятно станет. Если БЯМ бред несёт, то она тебе бред и объяснит. Причём, доходчиво, простым языком, поясняя непонятные тобой места.

...

Скоро и неизбежно языковые модели станут почти единственным источником информации. Точнее, найти что-то вне них станет очень сложным (примерно как сейчас найти актуальную информацию по какому-нить реально важному вопросу - не для всех и только за большие деньги). Массы (и мы в том числе) будут непосредственно от источников реальной информации отсечены. Только через модель.

Уже сейчас полно сайтов сгенерённых автоматически по СЕО-оптимизирующим запросам БЯМ. В какой-то момент мясные копирайтеры вообще исчезнут (если ещё не), останется только горстка энтузиастов, ведущих свои сайты по желанию души (как на заре интернетов), и найти их будет непросто. А потом (думаю, лет 10-15 пойдёт) в массе исчезнет привычка искать что-то на сайтах (потому как нафига, если там то же самое, что ты получишь запросом к модели? только модель тебе подгонит для твоего случая и под твои пожелания и предпочтения).

Сейчас переживают насчёт "стены" из поисковиков... так вот стена из моделей будет уже абсолютно глухой. Абсолютный контроль над информацией просто уже по самой технологии: грубо говоря, если БЯМ читает CNN, то она CNN и пересказывает. По всем вопросам. Ничего другого не существует.

Если БЯМ говорит, что войну с нацистами выиграли американцы, значит, так и есть. Если говорит, что Гитлера повесили в Москве после того, как Сталин отравился в берлинском бункере, то кто ты такой, чтоб спорить?

...

Sandro> И тут он гордо заявляет, что этот код ему написал Искусственный Интеллект!
Очень быстро развиваются системы.

Это просто ты опять видишь приветы из прошлого - попытки использовать для написания кода общедоступные БЯМ. Сейчас делают специалированные, натаскивая на коде, и то, что я видел - просто охрененно, а мы ещё вот только-только на этот путь ступили, только носочком.
Даже просто дообучение LLaMы на своём проекте даёт ей очень много.

Дай лет пять, машина будет писать по описанию не фрагменты, а проекты целиком, готовый прочный миддловский код (в ординарных случаях).

Бред и галлюционации БЯМ, конечно, останутся, но уйдут в узкие области, где мало хороших примеров. Вот там и будут тусоваться труъ-программисты. Все остальные будут работать с БЯМ и подхачивать какие-то упущенные ими мелочи.

Я вот посмотрел Devon... его сейчас принято ругать, мол, столько возились, а он нормально пишет один проект из шести... но бл.дь! Машина пишет нормально готовый рабочий проект с нуля за считанные часы в 15% случаев! Да и в половине других чуток подхачить и поедет. Ты вот покажи мне мясного программиста, который с нуля сделает тебе полностью рабочий проект за это время - да ещё такой, который сразу поедет и начнёт работать идеально после первой компиляции!

...
Не то, чтобы программисты вымрут как динозавры. Но наша профессия СИЛЬНО изменится уже в самые ближайшие годы. Она уже очень изменилась. Если ты свой проект через какой-нить статический анализатор кода с БЯМ не прогоняешь регулярно (да хоть СонарКуб какой-нить), ты просто дурак.
   132.0.0.0132.0.0.0
BG intoxicated #26.01.2025 13:36
+
-
edit
 

intoxicated

Mr. «Никогда»

Появились две новые китайские модели которые на высшем уровне и являются Open Source:
Kimi 1.5
Doubao-1.5-pro
... посмотрим за события....
   134.0134.0
RU pokos #27.01.2025 11:16  @Татарин#26.01.2025 02:25
+
+1
-
edit
 

pokos

аксакал

Татарин> Бред и галлюционации БЯМ, конечно, останутся, но уйдут в узкие области,
Откудова у тебя такие экстраполяции?
У меня они противоположные: бред и галлюцинации расширятся, но станут гораздо труднее обнаруживаемыми.
   131.0.0.0131.0.0.0
RU pokos #27.01.2025 11:18  @Татарин#26.01.2025 02:25
+
-
edit
 

pokos

аксакал

Татарин> Я вот посмотрел Devon... рабочий проект с нуля за считанные часы в 15% случаев!
А за что его хвалить-то? За то, что выдаёт 85% полного г**на?
   131.0.0.0131.0.0.0
SE Татарин #27.01.2025 12:00  @pokos#27.01.2025 11:16
+
-
edit
 

Татарин

координатор
★★★★★
Татарин>> Бред и галлюционации БЯМ, конечно, останутся, но уйдут в узкие области,
pokos> Откудова у тебя такие экстраполяции?
pokos> У меня они противоположные: бред и галлюцинации расширятся, но станут гораздо труднее обнаруживаемыми.
Это тоже, да.

Но логика очень простая: до недавнего времени БЯМ просто "подбирали низковисящие плоды". Фактически, весь успех БЯМ долгое время сидел на том, что БЯМ скармливали всё больше и больше текста, и как следствие получали всё более и более качественный результат (прорыв и произошёл, когда БЯМ увеличили количество параметров, которые могут уместить связи высокого уровня, и накормили достаточным количеством текста, чтобы эти связи вычислить). Этот путь исчерпан: у людей нет достаточного количества заведомо качественных текстов, чтобы продолжать чисто экстенсивно кормить БЯМ.

Дальнейшее совершенствование БЯМ - создание "рассуждающих" систем.
Это подразумевает а) обучение с учителем (собссно, для чего эти все модели и выставлены "бесплатно" - люди со своими задачами сейчас работают в создании обучающей выборки и контроля результата; проверить реакцию человека на выдачу по его реплике или вопросу на естественном языке для БЯМ - естественная же задача) и б) самообучение (проверка "рассуждений" на задачах с известным решением в обучающих текстах или даже задачах реального мира со временем; например, на написании кода с автоматической проверкой его работоспособности - ну, как минимум компилируемость проверяется очень легко).

"Рассуждающие" сетки выдают на порядок меньше простого бреда в виде логически несвязных конструкций. Уже сейчас выдают меньше, сразу, искаропки. По мере их обучения простого бреда будет всё меньше, обнаружить его в выдаче будет всё сложнее.

А вот галлюцинировать (в смысле, принятие своих "фантазий" за непреложные факты) они будут по-прежнему, и для "рассуждающей" сетки поймать её на галлюцинациях будет гораздо сложнее. Потому что они будут плотно связаны с фактами и обретут внутреннюю стройность.

Разница - как между "послушать бред белой горячки тупого алкоголика" и "поймать на нестыковке фабулу бреда параноика с высоким IQ". Пока "IQ" не очень высокий, шансы есть. Но уже сейчас есть способы его дополнительно повысить (правда, за счёт потраченых экзафлопов), и "IQ" сеток неизбезжно будет расти (да просто тупо за счёт роста скорости нейрожелеза).

...
Так вот, почему "узкие области"? Потому что там сетки имеют меньше всёго твёрдых знаний. Там они начинают фантазировать. А "рассуждающие" сетки потом будут оборачивать свои фантазии в факты, вполне разумные выводы и связи и т.п.
("Узкие", конечно, для сетки - области, в которых был минимум обучающих текстов.)

...
Если у тебя есть контраргументация - ну, слушаю внимательно.
   131.0.0.0131.0.0.0
+
-
edit
 

spam_test

аксакал

pokos> А за что его хвалить-то? За то, что выдаёт 85% полного г**на?
за время. Нанял людей, и получил вероятность г**на 5%, но за месяцы.
   132.0.0.0132.0.0.0
SE Татарин #27.01.2025 12:32  @pokos#27.01.2025 11:18
+
+1
-
edit
 

Татарин

координатор
★★★★★
Татарин>> Я вот посмотрел Devon... рабочий проект с нуля за считанные часы в 15% случаев!
pokos> А за что его хвалить-то? За то, что выдаёт 85% полного г**на?
Я бы так не сказал, что это полное г**но. Как раз потыкавшись, сделал вывод, что в половине из "провальных" кейсов достаточно чуток правок, и оно поедет. Даже если сетка оказывается неспособной сделать эти правки самостоятельно...

Такое количество провалов вызвано каким-то запредельными ожиданиями. :) Даже в знакомой тебе области деятельности (все библиотеки, фреймворки, концепции хорошо знакомы) написать относительно большой проект (хотя бы сотни тысяч строк кода) так, чтобы он просто начал работать после первой компиляции - это не уровень миддла.
90% людей (неджунов и не с улицы) пофейлят 100% проектов с такими требованиями, уверяю тебя из опыта.
А если ты этим людям ещё и поставишь условия тестов как тому Девону (знай и умей ВСЁ), то у тебя процент успеха будет строгий математический 0% для 100% мясных.

В общем, я бы так сказал: как единственный заменитель единственного программиста (как заявлялось) оно сейчас и в обозримом будущем неприменимо. Но вот команду программистов, особенно на более-менее стандартных проектах, эта штука уже может сократить радикально. Нужен один грамотный человек для контроля, выдачи и правки промптов-ТЗ, подхачивания результатов. Но вот ещё 3-10 человек для вбивания кода можно пропустить. Джуны как бы и не нужны, так выходит.

А вот если эту хрень ещё и научить брать за примеры другие проекты или включать в её состав БЯМ преднатасканную на твои проекты...
   131.0.0.0131.0.0.0
RU pokos #27.01.2025 12:58  @Татарин#27.01.2025 12:32
+
-
edit
 

pokos

аксакал

Татарин> ... Даже если сетка оказывается неспособной сделать эти правки самостоятельно...
То нахрен она нужна?
Татарин> Такое количество провалов вызвано каким-то запредельными ожиданиями.
Ожидание бизнеса одно - получить за приемлемое время продукт, который можно продать. Если твоя сетка этого не может - её место на помойке.

Татарин> А вот если эту хрень ещё и научить брать за примеры другие проекты или включать в её состав БЯМ преднатасканную на твои проекты...
Всё будет, но позже.
   131.0.0.0131.0.0.0
1 30 31 32 33 34 38

в начало страницы | новое
 
Поиск
Настройки






Твиттер сайта
Статистика
Рейтинг@Mail.ru
АвиаТОП
 
Яндекс.Метрика
website counter
 
free counters