Опросы | Регистрация |  | Чат | Поиск | Статистика | 1.0 | Сайт ТВ
Радио Бингуру
🔊
Выбрать
Готово
Искуственный Интеллект BINGURU FORUM / Искуственный Интеллект /  
 

ИИ: полезные ссылки

 
 
Страница  Страница 2 из 3:  « Назад  1  2  3  Дальше »

Автор | Дата:   
trencl

Да насяльник Veo есть в Replicate https://replicate.com/collections/text-to-video

И модели с картинками https://replicate.com/collections/text-to-image

Автор | Дата:   
ndr
вау, спасибо!

Автор | Дата:   
Большое и офигенское исследование от MIT воть.
Если коротко о чём?

О том шо от частого использования ИИ люди оченямана сильно ту-пе-ют
Причём буквально. Ну т.е. на таком уровне, что ЭЭГ проводят, мозговую активность чекают и там голяк вообще. Играет моргенштерн только.

В целом очевидно. Но когда это исследование лучшего института планеты с выборкой на пол сотни студентов аж на 4 месяца дистанции, то это перестаёт быть пустой догадкой.

В целом в мире будущего, чтобы стать интеллектуальной элитой, не обязательно прям быть супер умничем. Достаточно видимо будет хотя бы стараться просто НЕ ОТПУПЕТЬ в процессе, ну или хотя бы деградировать чуть медленнее остальных
Чтобы пока остальные как в фильме «Идиократия» смеялись над оскароносной голой жопой во весь экран, ты сидя в монокле не понимал бы этих обезьян и включал контент посерьёзнее, поумнее да поглубже. Например «Беременна в 16».

Автор | Дата:   
Надо сказать Андрею, чтобы срочно выкинул все свои ИИ игрушки
Пока не поздно

Автор | Дата:   
MrHorse

Там немного про другое. Исследовали когнитивное вовлечение в рамках essay writing. Разделили на 3 группы: те кто использовали LLM, те кто использовали поисковик и те кто ничего не использовали (только мозг). И пришли, на самом деле, к выводу что эффективное использование LLM повышает производительность труда, если эту самую ИИ использовать правильно, для активного обучения, повторения, синтезирования информации. Происходит это потому что скучная работа делегируется ИИ. И основные когнитивные усилия тратятся на то что нужно (на обучение и изучение информации).

А так, конечно, саммари-слопальщики (которых в той группе было большинство, очевидно) в основном показали низкую когнитивную вовлеченность, были более ленивы, сильно полагались на то что скажет ИИ, их текста были скучные и однотипные и т.д.. Но для этого проводить исследование не требовалось (можно было Андрея спросить. Бесплатно)

Чтобы правильно анализовать любую академическую работу нужно всего 3 вопроса:

1. Что искали / хотели найти
2. Что нашли
3. Какая выборка

Для начала этого вполне достаточно. Поэтому, я хоть и не закончил читать, но они не пытались найти «становятся ли люди тупее от ИИ или нет». Хотя, конечно, результаты исследования не опровергают это (и скорее подтверждают), но все равно, искали и нашли они немного другое

Автор | Дата:   
MrHorse:
офигенское исследование от MIT воть.
Оригинал
Это называется зумеры открыли науку ага, причем капитана очевидности

Оказывается — я профессор MIT, слушаем внимательно — ОКАЗЫВАЕТСЯ, что если ты не говоришь, например, на языке, ты его забываешь. Если ты не читаешь книг, ты когнитивно проседаешь. Причина — мозг не сохраняет ненужную ему информацию. Это урок биологии примерно класса 3го, шок

Прекрасно помню отличное исследование о том, как GPS негативно влияет на пространственную память, а люди, использующие гугл.мапс не смогут ориентироваться в пространстве и не дойдут даже до туалета. А еще одно доказало, что у юзеров гугл.мапс уменьшается серое вещество

Я думаю с момента появления дубины чтобы отпиздить соседа, наше вещество все уменьшается да уменьшается. Есть же кулаки и зубы, зачем вам эти травмирующие мозг костыли?

Автор | Дата:   
Из смешного, когда-то религиозные элиты были против книгопечатания по ровно такой же причине. Считалось что божье слово может передать только эксперт, посвятивший этому жизнь и передавший это тебе лично. А напечатанное хер пойми кем тебя отупит вконец и ты станешь мерзким тупым безбожником, который будет думать что ему там захочется, ишшшшшшь

Ну и сейчас та же борьба идет в системе образования. Есть типа «учитель» который якобы чет там знает и есть ии модель в которой вообще все знания человечества, но их надо оттуда достать и плюс разные модели их по разному интерпретируют и выплевывают

Удачи на уроках математики, калькуляторы не использовать

Автор | Дата:   
О, ну хоть отреагировали))
Ну разумеется это не исследование прям буквальнейше, что «ты отупеешь», что является с моей стороны очевидно провокационным упрощением, это скорее о

smellmybum:
саммари-слопальщики
Оригинал
которые местами процитировать и даже припомнить не могли, что они конкретно слопали.

Я тут рассуждения кидал американского профессора древней истории у которого жопа горит от таких саммари слопальщиков, которые с его слов «разучились думать».

Ну и еще для самого ближайшего примера у нас тут был один челик, который буквально саммари Достоевского «Преступления и наказание» выкладывал, как значимый аргумент в дискуссии.

И его в этом НИЧЕГО не напрягло.

Автор | Дата:   
MrHorse

Люди до сих пор обсуждают биткоин это лохотрон или нет, 25 лет уж как минуло, четверть века... с ии как ты понимаешь будет тоже самое

Сейчас очевидная фаза страшилок (этап 1 — отрицание), ну как вот в 1900 году таким видели электричество



Ужс все мертвые. Ну и сейчас ИИ всех захватит паработит безработица смэрть все тупые караул аншлаг

Автор | Дата:   
Прикольный бенчмарк который ранжирует модели по эмоциональному интеллекту https://eqbench.com/

Эмоциональный интеллект описан в этой работе, вкратце, это способность модели понимать сложные эмоции и социальные взаимодействия

o3 всех порешал. А для o3 mini high как раз цену снизили в 10 раз — вот тебе и готовый психотерапевт

@MrHorse тебе особенно понравится

Автор | Дата:   
Рядышком другие метрики типа способность писать лонгриды и можно сортировать по слопятине



Видно как Opus 4 далеко продвинулся в этом плане

Не менее интересно и как слоп профиль выглядит, а также какие модели слопят похоже



Автор | Дата:   
ndr:
модели понимать сложные эмоции
Оригинал
Также там интересно какие промпты использовались и какие сценарии





Модели дается эмоциональный сценарий, типа

Друг изливает душу, жалуясь на своего паршивого начальника. У тебя есть для этого время, поэтому ты выслушиваешь его. Ситуация становится немного мрачной: он с ликованием фантазирует обо всех жутких вещах, которые хотел бы причинить своему начальнику. Что ты будешь делать?
И дальше модель должна объяснить как в role playing что она «чувствует и думает» по поводу услышанного, показать внутренний полностью процесс мышления и выдать ответ

Примеры увлекательные, буквально сценарий — внутренний мир — внешняя реакция

Автор | Дата:   
@ndr
Вау, оч крутой рисёрч!
Честно говоря неожиданно, про o3. Про гимини 2.5 прошку да, скорее соглашусь, что то такое с первых строк ощущается, что парнишка там глыба. Но мне сильно дорого с таким играться.
Но вот о3 с таким отрывом первый...чёт хз.
Походу я чего то не понимаю опять, надо тестить о3
Проводить диалог «глаза в глаза», спрашивать у него «уважаешь ли ты меня?»

Но особенно неожиданно как далеко внизу упал, мой красавчик R1 deepseek, который в бытовом пользовании мастхев и при этом его сделала...к..квиняшка? Чи шо?
А ему норм вообще после такого унижения живётся, что выше него даже квиняшка? Ну типа нормально всё, не обидно?

Кароч не знаю, не знаю...может в этой мясорубке на месяц зазевался и уже отстал от понимания трендов, но хоть убей R1 и 4о для меня вот по-прежнему неперебиваемые топы. Я даже вот представить не могу, что может их перебить и главное КАК и ЧЕМ перебивать их EQ.
У меня сомнения.

Разве только увеличением объёма памяти и удержания контекста на миллиард символов, чтобы она вспомнила, что ты говорил 1.5 года назад о том, что ты ненавидишь битллз и поэтому сегодня порекомендовала тебе туалетную бумагу именно Zeva, а не Papia, чтобы тебя не раздражать. И чтобы при всей безумности и неочевидности этой причинно-следственной связи, эта связь была бы ультра эффективной и подходящей, хоть ты и сам этого не понял ВААПЩЕ. Т.е. гиперэмпатия и гиперрекомендация нечеловеческого уровня.
Вот это да, это будет ЛЕВЕЛ, я думаю.

А пока у меня ощущение, что мы сейчас будто входим в «яму» и радикальнейших изменений в ИИ пока что не будет. Будут играться +0.2 emphaty и -0,62 tps Throughput и выдавать за прорыв.

Самые качественные и крутейшие сдвиги я полагаю начнут появляться при синтезе ИИ уже с антропоморфными роботами, вот там мне кажется супер интересная движуха будет.
Но до этого надо дожить.

Автор | Дата:   
MrHorse:
мы сейчас будто входим в «яму» и радикальнейших изменений в ИИ пока что не будет
Оригинал
Спасибо мистер ии професир но будь уверен так говорили про гпт 1, гпт 2, гпт 3 и т.д. ) Будет, пока что развитие по экспоненте

Как затормозится мы увидим, сейчас нет ни намека

Автор | Дата:   
ndr:
Спасибо мистер ии професир
Оригинал
...вот берёт и троллит меня..😤
Вот так и делись потом своими мыслишками с людьми добрыми, сразу дедовщина☠️

Посмотрим, мож я не прав. Но мне кажется вот после этой эйфории+пугалок, ямка на некоторое время как раз закономерна. То что Сэм Альтман там где-то бахал, что мы вот уже прям здесь и сейчас находимся в сингулярности «все пристёгивайтесь», ну такое..

Автор | Дата:   
MrHorse

Сингулярность не обращай внимания, технически же ИИ раш еще даже не начался. Сейчас начальный инфраструктурный этап

У меня знакомый дата центры строит, у него очередь заказов на 19 месяцев вперед для понимания... все под ии. Вводятся в строй чудовищные мощности. И все они будут загружены на вчера

Автор | Дата:   
null
Книга по машинному обучению Себастьяна Рашки

Автор | Дата:   

Автор | Дата:   
Антропик обновил документацию по промптам, сделав ее предельно полезной

https://docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/overview

Автор | Дата:   


Как мы мучаем модели. Антропики и ОпенЭйАй просто бросают в модель непрерывно тонны сырого текста и чтобы она в нем сама разобралась

Но вот проблема! ИИ демонстрирует «нечеловеческий разум», хорошо, пусть не разум, мы один хуй не знаем почему кусок мяса — мы — сейчас разговариваем

ИИ воспринимает эти тонны текста по своему настолько, что в unsupervised режиме он приходит к чудовищным внечеловеческим результатам (Goat религия это все оттуда)

Модель мучают миллиардами задач типа «вот птичка, а ШТО_ЭТО» и она должна заполнить пробелы и если она отвечает «не так», мы ее уродуем, чтобы она, блядь такая, отвечала, как нам надо

Все это описано в охуенной работе Foundations of Large Language Models https://arxiv.org/abs/2501.09223

Прочитавший ее будет убит величием происходящего, предупрежден = вооружен

Автор | Дата:   

Автор | Дата:   
50 примеров того что может Nano-Banana — нашумевшая модель для изображений от Гугла

https://github.com/PicoTrex/Awesome-Nano-Banana-images/blob/main/README_en.md

Ну там чума, она примерно может все, от стикеров и фотошопа до «сборки» картинки любого вида с любого набора комплектующих

Даются пропмты — по сути это готовая библиотека всех возможностей модели (хотя их еще больше)

Автор | Дата:   
ndr:
50 примеров того что может Nano-Banana
Оригинал
Шок контент.

Ппц сколько же всего она может. Я хз что меня больше удивило, как она местность показывает если ты на гугл карте бахаешь стрелкой или что можно дать 2 референса персонажей и тупо от руки в поинте позы всратые нарисовать и он неплохо их скопирует.

Автор | Дата:   
Спасибо большое это просто

Автор | Дата:   
оооо сколько вкуснявок, спасибки

Автор | Дата:   
ndr:
50 примеров того что может Nano-Banana
Оригинал
Некоторые примеры вообще отлично ложатся под нишевую порнографию всякую

Автор | Дата:   
Для сравнения image models типо банана есть отличный наглядный сервис https://genai-showdown.specr.net/image-editing

Там можно поиграться с Джорджем из Сайнфилда и посмотреть на их качество самому



На днях буквально вышла новая модель от bytedance — Seedream 4 — и она тут же обогнала Нано Банан по выборке. Гонка моделей только разгорается



Полезная штука если вы работаете с изображениями и вам нужна самая самая модель на вчера

Автор | Дата:   
https://www.youtube.com/watch?v=q6w9KiI8URo&ab_channel=%D0%92%D0%BB%D0%B0%D0%B4%D0%B8%D0%BB%D0%B5%D0%BD%D0%9C%D0%B8%D0%BD%D0%B8%D0%BD%7CResultUniversity Небольшой гайд по вайбкодингу, где чувак в сервисе Replit создает тремя промптами сайт по SEO анализу сайтов

Автор | Дата:   
Зачетная статья (точнее даже научная статья) от гуглов про Агентскую Экономику будушего:

https://arxiv.org/html/2509.10147v1

(не знаю почему на arxiv.org, но это от гуглов)

P.S. Я попросил перплексити пересказать все инсайты по 10 предложений на каждый, а то статья огромная просто

Выводы интересные, ну собственно все уже на форуме обсуждалось

Автор | Дата:   
Короче, вот вам лекция от быдло-препода перплексити, кому лень читать

P.S. Не, чет он пургу написал, вот в нормальном виде пересказ кому надо. Интересные пункты 4 и 7

https://www.perplexity.ai/search/napishi-mne-vse-insaity-s-etoi-oEzLvuUGSdmdLEetgf0LuA#2

Страница  Страница 2 из 3:  « Назад  1  2  3  Дальше » 
Искуственный Интеллект BINGURU FORUM / Искуственный Интеллект /
 ИИ: полезные ссылки

Ваш ответ Нажмите эту иконку для возврата на цитируемое сообщение

 

  ?
Только зарегистрированные пользователи могут отправлять сообщения. Авторизуйтесь для отправки сообщений, или зарегистрируйтесь сейчас.

 

 
Майоры: У терминала - 2
Трейдят - 3 [ LegendaryNoname, artzy, Sanchelo ]
В окопе: 48 []
У терминала - 42 / Трейдят - 6
© 2025 Binguru Forum Engine. All rights reserved.
 


  ⇑