Доброчанька 05/07/2023 (Sun) 22:41 No.3574 del
>>3546
>Что ты несёшь, крестьянин?
>крестьянин
А ты кто, депутат? Или может в СВО участвовал? Попустись, в текущей мете ты ни брахман, ни кшатрий, а лишь такой же крепост- ой, тьфу ты, "налоговый резидент". Ну если разве что ещё гражданство Израиля не получил. Тогда не прав. Шалом!

>То, что я могу экстраполировать из этого гипотезу о следующей итерации с большой степенью уверенности – моё преимущество над тупой базой данных, которая просто перебирает данные ей факты.
То есть, ты эту гипотезу выдумал, не основываясь на фактах.

>Я тоже не знаю, какие exactly трюки из десятков доступных они применят в 2023, а какие отложат на потом.Только они все уже существуют и известны. В дополнение к тем, которые OpenAI скрывает, конечно, как они скрывают свои методы тюнинга гиперпараметров.
Десятки, тысячи миллионов трюков, и все скрывают! Великий 5D chess от гениальных создателей уникальной технологии аналоговнет.

>> GPT-4 is coming, but currently the focus is on coding (i.e. Codex) and that's also where the available compute is going. GPT-4 will be a text model (as opposed to multi-modal). It will not be much bigger than GPT-3, but it will use way more compute. People will be surprised how much better you can make models without making them bigger. The progress will come from OpenAI working on all aspects of GPT (data, algos, fine-tuning, etc.).
И че? Закон Парето знаешь? 20% усилий дают 80% результата. 80% усилий дают остальные 20% результата. Ты увидел только что 80% того, на что способен современный "AI". Остальные 20% будут допиливать напильником ещё n лет, о чём тебе прямо Альтман и говорит.

>Прежде чем диагностировать галлюцинации или любые иные психические нарушения
На воре и шапка горит, а я тебе ничего не диагностировал, а сравнил лишь твои фантазии с галлюцинациями нейронок.

Message too long. Click here to view full text.