[Интервью] Про малый размер контекста ИИ
От: Shmj Ниоткуда  
Дата: 24.07.23 20:46
Оценка:
В основном интервью философское, однако же и чуть технических вопросов затронули:

  Скрытый текст
https://www.youtube.com/watch?v=2GAgMBsrpzs


Основное что хотел поднять (этому там пару мин. уделили) — чел. говорит, что сейчас главная проблема ИИ — малый контекст. Так все построено так, что, грубо говоря, на основе одного экрана текста входящих данных — ИИ продуцирует исходящие данные.

Этот контекст якобы можно увеличить, но вычислительные мощности потребуется увеличивать по экспоненте. Т.е. упираемся в невозможность решить текущими аппаратными средствами. А многие задачи требуют именно большого контекста входящих данных (как то проект состоит НЕ из одного-двух экранов кода а гораздо больше).

И вопрос у меня такой. Вроде бы у человека тоже не большой контекст. Т.е. оно где-то там хранится, пусть в долговременной памяти или же даже в блокноте, чел. подгружает в думалку, но сама думалка в текущий момент времени вроде бы прямо миллионами фактов не оперирует. Или просто такая иллюзия создается?

Кто что скажет?
=сначала спроси у GPT=
Отредактировано 24.07.2023 20:58 Shmj . Предыдущая версия . Еще …
Отредактировано 24.07.2023 20:48 Shmj . Предыдущая версия .
Отредактировано 24.07.2023 20:47 Shmj . Предыдущая версия .
Re: [Интервью] Про малый размер контекста ИИ
От: Nuzhny Россия https://github.com/Nuzhny007
Дата: 24.07.23 20:52
Оценка:
Здравствуйте, Shmj, Вы писали:

S>Кто что скажет?


Человек умеет в абстракции, этим он и отличается. Да, в памяти одновременно не более 7-8 сущностей, но этого часто достаточно.
Сетки сейчас учат эмулировать абстракции с одной стороны, а с другой — пользоваться справочниками. Что-то получится.
Re: [Интервью] Про малый размер контекста ИИ
От: vsb Казахстан  
Дата: 24.07.23 21:05
Оценка:
Здравствуйте, Shmj, Вы писали:

S>Основное что хотел поднять (этому там пару мин. уделили) — чел. говорит, что сейчас главная проблема ИИ — малый контекст. Так все построено так, что, грубо говоря, на основе одного экрана текста входящих данных — ИИ продуцирует исходящие данные.


В GPT4 контекст это 8 000 токенов. Также есть модель с 32 000 токенами.

https://github.com/torvalds/linux/blob/master/fs/9p/v9fs.c вот этот файл содержит 737 строк или 7,837 токенов. Т.е. GPT4 способен держать в памяти контекст примерно на 800 строк кода на C. Или в 4 раза больше. Классический размер экрана это 25 строк. Иными словами он способен держать в контексте не один экран текста, а 30/120 экранов текста.
Отредактировано 24.07.2023 21:06 vsb . Предыдущая версия .
Re: [Интервью] Про малый размер контекста ИИ
От: Vzhyk2  
Дата: 25.07.23 04:43
Оценка: 6 (1) +1
S>И вопрос у меня такой. Вроде бы у человека тоже не большой контекст. Т.е. оно где-то там хранится, пусть в долговременной памяти или же даже в блокноте, чел. подгружает в думалку, но сама думалка в текущий момент времени вроде бы прямо миллионами фактов не оперирует. Или просто такая иллюзия создается?
Нейронная сеть только очень-очень упрощенно отражает некоторые особенности нейронной биологической сети и не более.
Более того, это всего-лишь аппроксимация некоей сложной нелинейной функции отображения пространства набором простых.

Так что нейронкам до уровня мышления таракана еще очень и очень далеко.
Больше удивляет, что многие люди в реальности просто не пользуются возможностями того, что эволюционно в их голове было создано и оказываются тупее простой нейронки.
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.