Как работает самовнимание?
Как работает самовнимание?

Видео: Как работает самовнимание?

Видео: Как работает самовнимание?
Видео: Лекция. Внимание (Attention) 2024, Май
Anonim

С точки зрения непрофессионала, себя - внимание механизм позволяет входам взаимодействовать друг с другом (« себя ») И узнайте, кому они должны платить больше внимание к ( внимание »). Выходы находятся совокупности этих взаимодействий и внимание оценки.

Кроме того, что такое внимание к себе?

Себя - внимание , иногда называемый внутри- внимание является внимание механизм, связывающий различные позиции одной последовательности, чтобы вычислить представление последовательности.

Кроме того, что такое самовнимание в глубоком обучении? Сначала давайте определим, что " себя - Внимание " является. Ченг и др. В своей статье под названием «Сети с долгосрочной краткосрочной памятью для Машина Чтение », определил себя - Внимание как механизм соотнесения различных позиций одной последовательности или предложения, чтобы получить более яркое представление.

В связи с этим, что такое механизм внимания?

Механизм внимания позволяет декодеру обращаться к различным частям исходного предложения на каждом этапе генерации вывода. Вместо того, чтобы кодировать входную последовательность в один фиксированный вектор контекста, мы позволяем модели научиться генерировать вектор контекста для каждого временного шага вывода.

Что такое модель на основе внимания?

Внимание - основанные модели принадлежат к классу модели обычно называется от последовательности к последовательности модели . Цель этих модели , как следует из названия, он производит выходную последовательность для входной последовательности, которая, как правило, имеет разную длину.

Рекомендуемые: