smellmybum: Если ИИ не может тебе доходчиво объяснить и доказать зачем сделано вот это или это — значит оно не нужно и тебя газлайтят
ОригиналСамый простой пример того что такое «ИИ» и почему до AGI еще как до луны:
1. написать с ИИ простой скрипт
2. В новой сессии задать промпт чтобы ИИ проанализировала полностью код на уязвимости
3. Оно выдаст список уязвимостей. Ты просишь пофиксить все
4. ИИ фиксит
5. Начинаешь новую сессию и повторяешь п.2 и далее
В итоге ты просто просидишь весь день и ИИ будет тебе бесконечно находить «критические» уязвимости которые надо немедленно исправить
Это вся суть того если соглашаться абсолютно на все, не вникая. Поэтому ИИ надо расценивать как adversary который хочет тебе навредить, ибо благими намерениями вымощена дорога в ад
Единственный (как мне кажется) эффективный способ который работает для меня, по крайней мере: постепенно загонять ИИ в тюрьму, чтобы не было маневров для неправильных действий. Конечно, 100% действий не избежать потому что ты просто их все не смоделируешь, не будучи cybesecurity спецом (например, rm -rf необязателен даже чтобы что-то снести, даже если есть запрет на это. Кто бы мог подумать?), но наша задача просто ограничить риски: через изоляцию баша, через докер, VPS и прочее