/dobrochan/ - Доброчан

Бункер доброчана для того, чтобы можно было пережидать всякие перетряски.

Posting mode: Reply

Check to confirm you're not a robot
Name
Email
Subject
Comment
Password
Drawing x size canvas
File(s)

Board Rules

Max file size: 350.00 MB

Max files: 5

Max message length: 4096

Manage Board | Moderate Thread

Return | Magrathea | Catalog | Bottom

Expand All Images


(170.48 KB 2706x948 GWkSrpUa8AAD89Y.jpeg)
Сингулярность 2024-2025 Доброчанька 09/03/2024 (Tue) 22:51 [Preview] No. 4226
Ну вы понели.
2022-2024 здесь
https://endchan.org/dobrochan/res/603.html


Доброчанька 09/05/2024 (Thu) 11:13 [Preview] No.4230 del
А есть что обсуждать? Пузырь уже трещит, даже самые упоротые веруны в аи уже попустились.


Доброчанька 09/08/2024 (Sun) 08:15 [Preview] No.4231 del
>>4230
Пока ты фантазируешь про пузырь, Гугл строит кластеры гигаваттного класса.


Доброчанька 09/09/2024 (Mon) 16:43 [Preview] No.4232 del
>>4231
Сколько джигаваттные кластеры не строй, а пузырь-то скоро лопнет. Нужно срочно продавать лохам новости о виртуальных кластерах, собирать бабки на "этичный ИИ" или стричь шейхов-ослоебов как Альтман https://www.wsj.com/tech/ai/sam-altman-seeks-trillions-of-dollars-to-reshape-business-of-chips-and-ai-89ab3db0


Доброчанька 09/12/2024 (Thu) 17:29 [Preview] No.4233 del
>>4232
Скоро-скоро лопнет! Вот-вот побегут инвесторы от жидомошенника Шмуля Альтмана и прочих Цукербринов да Суцкеверов! И наступит эра кальсонноарийского вычисления, без всяких богомерзских нейросетей!

Тем временем в реальности.

OpenAI o1 ranks in the 89th percentile on competitive programming questions (Codeforces), places among the top 500 students in the US in a qualifier for the USA Math Olympiad (AIME), and exceeds human PhD-level accuracy on a benchmark of physics, biology, and chemistry problems (GPQA).

Я предсказывал всё это ещё в 2021-м году. Соси говно, недочеловек.


Доброчанька 09/13/2024 (Fri) 19:06 [Preview] No.4234 del
>>4233
>OpenAI o1 ranks in the 89th percentile on competitive programming questions (Codeforces)
Девять из десяти стоматологов выбирают "Блендамед". "Блендамед" - и ваши много раз перепачканные кальсоны снова светятся белизной!


Доброчанька 09/14/2024 (Sat) 02:06 [Preview] No.4235 del
>>4234
Теренс Тао, лауреат премии Филдса:

Я немного поэкспериментировал с новой итерацией GPT от OpenAI, GPT-o1, которая выполняет начальный этап рассуждения перед запуском языковой модели. Это, безусловно, более мощный инструмент, чем предыдущие версии, хотя все еще испытывает трудности с наиболее сложными математическими задачами исследовательского уровня.

Вот несколько конкретных экспериментов (с прототипной версией модели, к которой мне предоставили доступ). В https://chatgpt.com/share/2ecd7b73-3607-46b3-b855-b29003333b87 я повторил эксперимент из https://mathstodon.xyz/@tao/109948249160170335, в котором я попросил GPT ответить на расплывчато сформулированный математический вопрос, который можно было решить, определив подходящую теорему (теорему Крамера) из литературы. Ранее GPT мог упомянуть некоторые релевантные концепции, но детали были галлюцинированной бессмыслицей. На этот раз теорема Крамера была идентифицирована, и был дан вполне удовлетворительный ответ. (1/3)

В https://chatgpt.com/share/94152e76-7511-4943-9d99-1118267f4b2b я дал новой модели сложную задачу по комплексному анализу (для которой я ранее просил GPT4 помочь написать доказательство в https://chatgpt.com/share/63c5774a-d58a-47c2-9149-362b05e268b4). Здесь результаты были лучше, чем у предыдущих моделей, но все же немного разочаровывающими: новая модель могла прийти к правильному (и хорошо написанному) решению, *если* предоставить много подсказок и наводящих вопросов, но самостоятельно не генерировала ключевые концептуальные идеи и делала некоторые нетривиальные ошибки. Опыт был примерно сопоставим с попыткой консультировать посредственного, но не полностью некомпетентного аспиранта. Однако это было улучшением по сравнению с предыдущими моделями, чьи возможности были ближе к действительно некомпетентному аспиранту. Возможно, потребуется всего одна или две дальнейшие итерации улучшенных возможностей (и интеграция с другими инструментами, такими как пакеты компьютерной алгебры и ассистенты доказательств), прежде чем будет достигнут уровень "компетентного аспиранта", и тогда этот инструмент может стать значительно полезным для задач исследовательского уровня. (2/3)

В качестве третьего эксперимента я попросил (в https://chatgpt.com/share/bb0b1cfa-63f6-44bb-805e-8c224f8b9205) новую модель начать задачу формализации результата в Lean (а именно, установить одну форму теоремы о простых числах как следствие другой), разбив ее на подлеммы, для которых она бы формализовала утверждение, но не доказательство. Здесь результаты были многообещающими в том смысле, что модель хорошо поняла задачу и выполнила разумное начальное разбиение проблемы, но была ограничена отсутствием актуальной информации о Lean и его математической библиотеке в своем обучении, и ее код содержал несколько ошибок. Однако я могу представить, что модель с такими возможностями, специально настроенная на Lean и Mathlib и интегрированная в IDE, может быть чрезвычайно полезной в проектах по формализации. (3/3)

Кальсон, многократный лауреат премии Ленина за достижения в художественной копролалии:
> Девять из десяти стоматологов выбирают "Блендамед". "Блендамед" - и ваши много раз перепачканные кальсоны снова светятся белизной!


Доброчанька 09/14/2024 (Sat) 09:25 [Preview] No.4236 del
>>4235
>Чатбот что-то загуглил успешно, а где-то обосрался.
Важно, батенька, следить: когда вопите "слава роботам!", нужно стараться сдерживать себя и не портить кальсоны синхронным извержением.



Top | Catalog | Post a reply | Magrathea | Return