Эти системы никакого смысла нет разбивать, разлаживать на компоненты. Существует некий генератор топологий, ну если симуляции не касаться. Все вокруг сделано реально не обьяснимым образом, биота это чудо. Мы пока не можем обьяснить или понять, можно лишь наблюдать. Попытки двухсотлетние списать на рандом и отбор это антинаучно, безумие. Вчера сфоткал грибы, интересный вид: Бокальчик Олла Споры обьединяются в группы, на подобие семян. Их выбрасывают капли воды. В ботанике подобное называется диаспорами, это рандомом не получится обьяснить.
Да тут проблема даже не в том, есть такое в органике или нет, а в том, что выкладки этого чувака для меня очень очень сомнительно пахнут попыткой натягивать сову на глобус и распространять довольно таки логичные "математические запреты" на интеллект так как будто бы это делает его невозможным. Но походу только идеализацию того что он сам себе видимо возмомнил как "абсолютный разум" (назовём это так). По крайней мере поднимаемые им теоремы намекают на это - что он зачем то грань невозможного хочет преодолеть, ибо все эти штуки про принципиальные фундаментальные ограничения. Невозможно сделать компьютер (хоть полупроводниковый хоть органический) который был бы способен эмулировать программно свою собственную работу - потому что в такой постановке есть фундаментальное ограничение - не хватит памяти содержать программу-эмулятор + всю память исходного компьютера. Прекрасно видно это ограничение если задаться целью "заэмулировать самого себя занятого эмуляцией самого себя" - мы впадаем в бесконечную неразрешимую рекурсию. Поэтому компьютер может эмулировать только какое то подмножество себя - за вычетом памяти на программу эмулятор и за вычетом потому невозможных постановок задач. Возможен ли разум который решит проблему остановки? Ну понятно же что нет. Ну и похоже его "атаки" они в каком то таком изначально бесперспективном ключе проходят, хотя я даже не собираюсь в них копаться и пытаться что-то понять, подозреваю что это намеренный хайп с нагромождением чёрт-ногу-сломи теорем просто для того чтобы хайпануть. В матане есть еще более сильные утверждения касающиеся самого процесса математического рассуждения - так называемые формальные системы которые были призваны превратить математические рассуждения в аналоги символьных программ которые исполняются как бы шагами алгоритма и приводят к каким то результатам. Это очень сильная абстракция как бы превращающая процесс математического размышления в алгоритм на чём то похожем на язык программирования. Например число 3 в формальной системе арифметики Пеано это inc(inc(1)). Символы нанизанные в цепочку - и есть правило, что рядом стоящие inc и dec из цепочки можно выкинуть. Так inc(dec(inc(1))) это inc(1) т.е. 2. Язык Haskell есть начнёте изучать, то его самый популярный учебник "хаскель во имя добра" с ходу начинает погружать именно в такую аксиоматику и как мы можем теперь конструировать операцию сложения двух чисел как абстрацию когда мы все inc/dec из первого числа перекидываем в другое, потом плюс еще один inc (сама первообразная единица) и сокращаем все парные inc/dec. Так вот Гёделем было доказано, что в любой формальной системе есть что-то что с одной стороны принадлежит ей - такие цепочки которые в ней есть, но до них нельзя добраться исходя из заданных правил. С точки зрения мат. логики это означает, что в любой такой формальной аксиоматике есть пробелы до которых можно добраться только вводя в формальную систему новые аксиомы, т.е. по сути делая другую более мощную формальную систему. Которая, однако, обладает тем же недостатком. Нет такой формальной системы которая была бы "вещью в себе", позволяла вывести всё что в ней выводимо и доказать всё что в ней существует. Это было как раз сильным философским ударом под концепцию "Абсолютного знания" и в своё время много шума наделала эта "теорема Гёделя о неполноте", но ведь она со сути тоже про интеллект, про то как мы думаем в математике и какие там есть пределы познания так сказать. Поэтому уже сейчас можно сказать, что какой бы ИИ ни был, но не разрешит он ту задачу из-за которой Гёдель разработал свою теорему - не докажет он непротивречивость арифметики средствами самой арифметики. Именно поэтому для меня красный маркёр то, что этот исследователь вообще упоминает Гёделя там в своём доказательстве.
А почему система не может себя же эмулировать. Допустим памяти не хватит, но данные можно сжимать, оптимизация размера. Это внесет задержку, но в тех абстрактных утверждениях ее не видно. Даже у нас в ос на процесс памяти больше чем физически в машине, на то она и виртуальная.. Как вообще можно применять логику к тому, что не сформулировано ? Нет определения интеллекта, алгоритм его не известен. Нет даже попыток понять, к примеру наблюдая за ходом анализа на максимально простых задачах. Вообще имхо нейросети к интеллекту никакого отношения не имеют, выхлоп похожий, методы разные.
Да, кстати, я неправильно выше выразился - не в "любой формальной системе", а в "формальной системе достаточно сложной чтобы в ней можно было вывести арифметику". Формальная система логики высказываний еще достаточно проста чтобы там не возникало таких сложностей. Тогда сразу же возражение - попробуем заэмуляировать самого себя который уже эмулирует самого себя пытаясь сжать. И мы упрёмся в потолок сжатия информации - энтропию Шеннона - и Бинго! Энтропия по Шеннону тоже упомянута в его посте на реддите. Так что повторюсь - плохо пахнет всё это. Ну что точно известно - что мозг это нейросеть и что современные нейросети во многом не подобны мозгу - поэтому однозначно полная эмуляция еще дело будущего. Но современные результаты уже удивительны и очень многообещающи. Тест Тьюринга уже пройденный этап, а ведь когда-то считалось, что он уже есть суть момент появления "сильного" интеллекта. Но нет, но и тест Тьюринга уже перестал манить и дразнить как этап пройденный.
Командир корабля: — Уважаемые пассажиры, через несколько минут наш самолет начнет снижение и будет готовиться к посадке в аэропорту города Баден-Баден Пассажир: — Мне два раза повторять не надо! Мне два раза повторять не надо!
aa_dav Думаю так. Общее свойство интеллекта двояко - это анализ, синтез, те инфа полезная растет. Без ввода каких либо данных из вне. Во втором случае происходит тн свертка, обобщение. При этом количество полезной инфы уменьшается, но тн вес, значимость увеличивается, например разные события описываются формулой. Как следствие из этого, машинный ии" не может менять обьем инфы, выполняя такие операции. Что может быть критерием детекта бота. Хоть и не тестил, но совершенно очевидно что распознавание изображений не работает вовсе, только поиском подобий по бд. Растровая линия не может быть опознана как обьект(исключена далее и тп), так свойств ее нет в датасете.
Об автономности процессов от внешних данных, немного спорное утверждение. Человеческий моск к примеру опирается на сенсорный опыт.
Опирается конечно, когда обучен, тогда формирует новую инфу. А не тащит с бд, как эти чат боты. Пол часа пообщался с новым ботом, больше не хочется(вопросы по дарвиновской эволюции, сразу очевидно становится что это робот). Детская погремушка какая то, на которую огромные ресурсы тратят Вместо реализации алгоритма под опред задачу(особенно когда нужно большие массивы обработать) хотят что бы это как то решать нейронками. Отупели такие дальше некуда Даже тут юзают ботов, а потом руками разводят, так как время назад не откатишь.
не может быть!!! все тытрубки с альтман-человекасами трезвонятЬЬ что ОНО прошло наконец-то тест Тьюринга! может у вас не тот ШИ-зоид попался?
https://ru.wikipedia.org/wiki/Тест_Тьюринга может определить является ли бот человеком, но он не может определить не является ли человек ботом.
Решение проблемы неэффективного ИИ(снижает риски неэффективности ботов): бот извлекает данные из бд. А человек потом их синтезирует тк бот в синтез плохо умеет. Спойлер: Спойлер Сильная сторона человека: Глубокое понимание, абстрактное мышление, творчество, критическая оценка, работа с неопределенностью, этические суждения, использование всего жизненного опыта.
Эта фигня раскрывает свои технические нюансы, можно спросить про подробный тайминг ответа, как формируется. И описывает возможные пути атак Тесты никакие пройти это не может, сразу становится очевидным плоское мышление", бот говорит инфу, которая сама себе противоречит и не может ее анализить. Что то похожее на выдачу гугла. Короче полная чепуха.
Ahimov, это шутка была вообще-то Многое зависит от качества данных. Мусор на входе -> мусор на выходе. Пройти именно Тест Тьюринга неправильно поставленная задача. Надо что-то новое придумать, что такое разумное поведение.
Конечно сам концепт таких тестов бред какой то. Следует понимать что те понятия устарели, не успев возникнуть. Тогда небыло сетей, ботов и тп. Были немецкие субмарины и шифры. Сейчас совсем иная ситуация. Если бота показать психиатру, будет наверно много смеха. И в общем так думаю. Есть понятия типо ии, эволюции, гравиполя и прочей ахинеи", такое слово есть ? Которые использоваться не должны, что бы не вводить разум в заблуждение.
Надеюсь что https://ru.wikipedia.org/wiki/Китайская_комната уже давно известна и обработана участниками форума - https://wasm.in/threads/samorazvivajuschesja-struktura.27746/#post-334797
Я думаю да. Интересен тут Буддизм как философское воззрение о том, что все люди и есть ничто иное как "философские зомби" и потому реально ничем от эмуляций чисто даже теоретически отличаться не могут. Это, впрочем, вопрос веры. --- Сообщение объединено, 10 авг 2025 --- Квалиа это всё-таки невероятный по силе феномен который невозможно никак ни исследовать ни доказать - поэтому никаких доказательных утверждений на эту тему просто и невозможно высказать. Остаётся только верить или не верить.