Глоссарий машинного обучения: оценка языка

На этой странице содержатся термины глоссария языковой оценки. Чтобы просмотреть все термины глоссария, нажмите здесь .

А

внимание

#язык

Механизм, используемый в нейронной сети , который указывает важность определенного слова или части слова. Внимание сжимает объем информации, необходимой модели для прогнозирования следующего токена/слова. Типичный механизм внимания может состоять из взвешенной суммы по набору входных данных, где вес каждого входного сигнала вычисляется другой частью нейронной сети.

Обратитесь также к самовниманию и многоголовому самовниманию , которые являются строительными блоками Трансформеров .

автоэнкодер

#язык
#изображение

Система, которая учится извлекать наиболее важную информацию из входных данных. Автоэнкодеры представляют собой комбинацию кодера и декодера . Автоэнкодеры полагаются на следующий двухэтапный процесс:

  1. Кодер преобразует входные данные в (обычно) низкоразмерный (промежуточный) формат с потерями.
  2. Декодер создает версию исходного ввода с потерями, сопоставляя формат меньшей размерности с исходным входным форматом более высокой размерности.

Автокодировщики обучаются сквозно, заставляя декодер пытаться как можно точнее восстановить исходный входной сигнал из промежуточного формата кодера. Поскольку промежуточный формат меньше (меньшая размерность), чем исходный формат, автокодировщику приходится узнавать, какая информация на входе важна, и выходные данные не будут полностью идентичны входным.

Например:

  • Если входные данные представляют собой графику, неточная копия будет похожа на исходную графику, но несколько изменена. Возможно, неточная копия удаляет шум из исходной графики или заполняет некоторые недостающие пиксели.
  • Если входные данные представляют собой текст, автокодировщик сгенерирует новый текст, который имитирует (но не идентичен) исходному тексту.

См. также вариационные автоэнкодеры .

авторегрессионная модель

#язык
#изображение
#генеративныйИИ

Модель , которая делает прогноз на основе собственных предыдущих прогнозов. Например, авторегрессионные языковые модели прогнозируют следующий токен на основе ранее предсказанных токенов. Все модели большого языка на основе Transformer являются авторегрессионными.

Напротив, модели изображений на основе GAN обычно не являются авторегрессионными, поскольку они генерируют изображение за один проход вперед, а не поэтапно итеративно. Однако некоторые модели генерации изображений являются авторегрессионными, поскольку они генерируют изображение поэтапно.

Б

мешок слов

#язык

Представление слов во фразе или отрывке независимо от порядка. Например, мешок слов одинаково представляет следующие три фразы:

  • собака прыгает
  • прыгает на собаку
  • собака прыгает

Каждое слово сопоставляется с индексом в разреженном векторе , где вектор имеет индекс для каждого слова в словаре. Например, фраза «собака прыгает» отображается в вектор признаков с ненулевыми значениями по трем индексам, соответствующим словам « собака » и «прыжки» . Ненулевое значение может быть любым из следующих:

  • 1 указывает на наличие слова.
  • Подсчет количества раз, когда слово появляется в сумке. Например, если фраза «бордовая собака» — это собака с бордовой шерстью , то и «бордовый» , и «собака» будут представлены как 2, а другие слова будут представлены как 1.
  • Некоторое другое значение, например логарифм количества раз, которое слово появляется в сумке.

BERT (представления двунаправленного кодировщика от трансформаторов)

#язык

Архитектура модели для представления текста. Обученная модель BERT может действовать как часть более крупной модели для классификации текста или других задач машинного обучения.

BERT имеет следующие характеристики:

Варианты BERT включают:

Обзор BERT см . в разделе «Открытый исходный код BERT: современное предварительное обучение обработке естественного языка» .

двунаправленный

#язык

Термин, используемый для описания системы, которая оценивает текст, который предшествует и следует за целевым разделом текста. Напротив, однонаправленная система оценивает только текст, который предшествует целевому разделу текста.

Например, рассмотрим модель языка в масках , которая должна определять вероятности для слова или слов, представляющих подчеркивание в следующем вопросе:

Что с тобой _____?

Однонаправленная языковая модель должна была бы основывать свои вероятности только на контексте, обеспечиваемом словами «Что», «есть» и «the». Напротив, двунаправленная языковая модель также может получить контекст от слов «с» и «вы», что может помочь модели генерировать более качественные прогнозы.

двунаправленная языковая модель

#язык

Языковая модель , определяющая вероятность присутствия данного токена в заданном месте во фрагменте текста на основе предыдущего и последующего текста.

биграмма

#seq
#язык

N-грамма , в которой N=2.

BLEU (дублёр двуязычной оценки)

#язык

Оценка от 0,0 до 1,0 включительно, указывающая на качество перевода между двумя человеческими языками (например, между английским и русским). Оценка BLEU 1,0 указывает на идеальный перевод; оценка BLEU 0,0 указывает на ужасный перевод.

С

причинно-языковая модель

#язык

Синоним однонаправленной языковой модели .

См. двунаправленную языковую модель, чтобы сравнить различные направленные подходы к языковому моделированию.

подсказка по цепочке мыслей

#язык
#генеративныйИИ

Метод быстрого проектирования , который побуждает большую языковую модель (LLM) шаг за шагом объяснять свои рассуждения. Например, рассмотрите следующую подсказку, уделив особое внимание второму предложению:

Какую силу перегрузки испытает водитель автомобиля, разгоняющегося от 0 до 60 миль в час за 7 секунд? В ответе покажите все соответствующие расчеты.

Ответ LLM, скорее всего, будет следующим:

  • Покажите последовательность физических формул, вставляя значения 0, 60 и 7 в соответствующие места.
  • Объясните, почему он выбрал именно эти формулы и что означают различные переменные.

Подсказки по цепочке мыслей заставляют LLM выполнять все вычисления, которые могут привести к более правильному ответу. Кроме того, подсказки по цепочке мыслей позволяют пользователю изучить шаги LLM, чтобы определить, имеет ли ответ смысл.

чат

#язык
#генеративныйИИ

Содержимое двустороннего диалога с системой машинного обучения, обычно это большая языковая модель . Предыдущее взаимодействие в чате (то, что вы набрали и как ответила большая языковая модель) становится контекстом для последующих частей чата.

Чат-бот — это приложение большой языковой модели.

болтовня

#язык

Синоним галлюцинации .

Конфабуляция, вероятно, более технически точный термин, чем галлюцинация. Однако первой популярностью стали пользоваться галлюцинации.

разбор избирательного округа

#язык

Деление предложения на более мелкие грамматические конструкции («составные»). Более поздняя часть системы машинного обучения, такая как модель понимания естественного языка , может анализировать составляющие легче, чем исходное предложение. Например, рассмотрим следующее предложение:

Мой друг взял двух кошек.

Анализатор избирательного округа может разделить это предложение на следующие две составляющие:

  • Мой друг — существительное.
  • усыновил двух кошек — это глагольная группа.

Эти составляющие можно разделить на более мелкие составляющие. Например, глагольная группа

взял двух кошек

можно дополнительно разделить на:

  • принято – это глагол.
  • две кошки — еще одна существительная группа.

контекстуализированное языковое встраивание

#язык
#генеративныйИИ

Встраивание , близкое к «пониманию» слов и фраз так, как это могут делать носители языка. Контекстуализированные языковые внедрения могут понимать сложный синтаксис, семантику и контекст.

Например, рассмотрим встраивание английского слова «cow» . Старые вложения, такие как word2vec, могут представлять английские слова таким образом, что расстояние в пространстве встраивания от коровы до быка аналогично расстоянию от овцы (овцы-самки) до барана (овцы-самцы) или от самки до самца . Контекстуализированные языковые встраивания могут пойти еще дальше, признав, что носители английского языка иногда случайно используют слово «корова» для обозначения либо коровы, либо быка.

контекстное окно

#язык
#генеративныйИИ

Количество токенов, которые модель может обработать в заданном приглашении . Чем больше контекстное окно, тем больше информации модель может использовать для предоставления последовательных и последовательных ответов на запрос.

крах цветения

#язык

Предложение или фраза с неоднозначным смыслом. Цветение сбоев представляет собой серьезную проблему в понимании естественного языка . Например, заголовок «Красная лента держит небоскреб» — это настоящий крах, потому что модель NLU может интерпретировать заголовок буквально или фигурально.

Д

декодер

#язык

В общем, любая система машинного обучения, которая преобразуется из обработанного, плотного или внутреннего представления в более необработанное, разреженное или внешнее представление.

Декодеры часто являются компонентами более крупных моделей, где они часто работают в паре с кодером .

В задачах преобразования последовательности в последовательность декодер начинает с внутреннего состояния, сгенерированного кодером, для прогнозирования следующей последовательности.

Обратитесь к Transformer для определения декодера в архитектуре Transformer.

шумоподавление

#язык

Общий подход к самостоятельному обучению, при котором:

  1. В набор данных искусственно добавляется шум .
  2. Модель пытается убрать шум.

Шумоподавление позволяет учиться на немаркированных примерах . Исходный набор данных служит целью или меткой , а зашумленные данные — входными данными.

Некоторые модели языка в масках используют шумоподавление следующим образом:

  1. Шум искусственно добавляется к непомеченному предложению путем маскировки некоторых токенов.
  2. Модель пытается предсказать исходные токены.

прямое побуждение

#язык
#генеративныйИИ

Синоним подсказки с нулевым выстрелом .

Э

изменить расстояние

#язык

Измерение того, насколько похожи две текстовые строки друг на друга. В машинном обучении расстояние редактирования полезно, поскольку его легко вычислить, а также это эффективный способ сравнить две строки, о которых известно, что они похожи, или найти строки, похожие на заданную строку.

Существует несколько определений расстояния редактирования, каждое из которых использует разные строковые операции. Например, расстояние Левенштейна учитывает наименьшее количество операций удаления, вставки и замены.

Например, расстояние Левенштейна между словами «сердце» и «дротики» равно 3, потому что следующие 3 редактирования — это наименьшее количество изменений, позволяющих превратить одно слово в другое:

  1. сердце → дорогая (замените «h» на «d»)
  2. дорогой → дротик (удалить «е»)
  3. дротик → дартс (вставить «s»)

слой внедрения

#язык
#основы

Специальный скрытый слой , который обучается на многомерном категориальном признаке для постепенного изучения вектора внедрения более низкого измерения. Слой внедрения позволяет нейронной сети обучаться гораздо эффективнее, чем обучение только на многомерном категориальном признаке.

Например, на Земле в настоящее время произрастает около 73 000 видов деревьев. Предположим, что виды деревьев являются признаком вашей модели, поэтому входной слой вашей модели включает в себя вектор длиной 73 000 элементов. Например, возможно, baobab можно было бы представить примерно так:

Массив из 73 000 элементов. Первые 6232 элемента содержат значение 0. Следующий элемент содержит значение 1. Последние 66767 элементов содержат нулевое значение.

Массив из 73 000 элементов очень длинный. Если вы не добавите в модель слой внедрения, обучение займет очень много времени из-за умножения 72 999 нулей. Возможно, вы выберете слой внедрения, состоящий из 12 измерений. Следовательно, слой внедрения постепенно изучает новый вектор внедрения для каждой породы деревьев.

В определенных ситуациях хеширование является разумной альтернативой слою внедрения.

пространство для встраивания

#язык

Сопоставляется d-мерное векторное пространство, являющееся частью векторного пространства более высокой размерности. В идеале пространство встраивания содержит структуру, которая дает значимые математические результаты; например, в идеальном пространстве вложений сложение и вычитание вложений могут решить задачи по аналогии слов.

Скалярное произведение двух вложений является мерой их сходства.

вектор внедрения

#язык

Грубо говоря, массив чисел с плавающей запятой, взятый из любого скрытого слоя и описывающий входные данные этого скрытого слоя. Часто вектор внедрения представляет собой массив чисел с плавающей запятой, обученный на слое внедрения. Например, предположим, что слой внедрения должен изучить вектор внедрения для каждого из 73 000 видов деревьев на Земле. Возможно, следующий массив является вектором внедрения дерева баобаба:

Массив из 12 элементов, каждый из которых содержит число с плавающей запятой от 0,0 до 1,0.

Вектор внедрения — это не набор случайных чисел. Слой внедрения определяет эти значения посредством обучения, аналогично тому, как нейронная сеть изучает другие веса во время обучения. Каждый элемент массива представляет собой рейтинг по некоторой характеристике породы дерева. Какой элемент представляет характеристику какой породы деревьев? Людям это очень сложно определить.

Математически примечательная часть вектора внедрения заключается в том, что аналогичные элементы имеют одинаковые наборы чисел с плавающей запятой. Например, похожие породы деревьев имеют более похожий набор чисел с плавающей запятой, чем разные породы деревьев. Секвойи и секвойи являются родственными породами деревьев, поэтому у них будет более похожий набор чисел с плавающей запятой, чем у секвой и кокосовых пальм. Числа в векторе внедрения будут меняться каждый раз, когда вы переобучаете модель, даже если вы переобучаете модель с идентичными входными данными.

кодер

#язык

В общем, любая система машинного обучения, которая преобразует необработанное, разреженное или внешнее представление в более обработанное, более плотное или более внутреннее представление.

Кодеры часто являются компонентом более крупной модели, где они часто работают в паре с декодером . Некоторые Трансформеры объединяют кодеры с декодерами, хотя другие Трансформеры используют только кодер или только декодер.

Некоторые системы используют выходные данные кодировщика в качестве входных данных для сети классификации или регрессии.

В задачах «последовательность-последовательность» кодер принимает входную последовательность и возвращает внутреннее состояние (вектор). Затем декодер использует это внутреннее состояние для прогнозирования следующей последовательности.

Обратитесь к Transformer для определения кодера в архитектуре Transformer.

Ф

подсказка из нескольких кадров

#язык
#генеративныйИИ

Приглашение , содержащее более одного («несколько») примеров, демонстрирующих, как должна реагировать большая языковая модель . Например, следующая длинная подсказка содержит два примера, показывающие большую языковую модель, как отвечать на запрос.

Части одной подсказки Примечания
Какая официальная валюта указанной страны? Вопрос, на который вы хотите получить ответ от LLM.
Франция: евро Один пример.
Великобритания: фунт стерлингов. Другой пример.
Индия: Фактический запрос.

Подсказки с небольшим количеством шагов обычно дают более желательные результаты, чем подсказки с нулевым шагом и одноразовые подсказки . Однако подсказка с несколькими выстрелами требует более длинной подсказки.

Подсказки в несколько этапов — это форма обучения в несколько этапов, применяемая к обучению на основе подсказок .

скрипка

#язык

Библиотека конфигурации , ориентированная на Python, которая устанавливает значения функций и классов без инвазивного кода или инфраструктуры. В случае Pax и других кодовых баз ML эти функции и классы представляют модели и обучающие гиперпараметры .

Фиддл предполагает, что базы кода машинного обучения обычно делятся на:

  • Код библиотеки, определяющий слои и оптимизаторы.
  • «Склеивающий» код набора данных, который вызывает библиотеки и связывает все воедино.

Fiddle фиксирует структуру вызовов связующего кода в неоцененной и изменяемой форме.

тонкая настройка

#язык
#изображение
#генеративныйИИ

Второй проход обучения для конкретной задачи, выполняемый на предварительно обученной модели для уточнения ее параметров для конкретного варианта использования. Например, полная последовательность обучения для некоторых больших языковых моделей выглядит следующим образом:

  1. Предварительное обучение: обучите большую языковую модель на обширном общем наборе данных, например на всех англоязычных страницах Википедии.
  2. Точная настройка: обучение предварительно обученной модели выполнению конкретной задачи, например ответа на медицинские запросы. Точная настройка обычно включает сотни или тысячи примеров, ориентированных на конкретную задачу.

В качестве другого примера полная последовательность обучения для модели большого изображения выглядит следующим образом:

  1. Предварительное обучение: обучите большую модель изображения на обширном общем наборе данных изображений, например на всех изображениях в Wikimedia Commons.
  2. Точная настройка: обучение предварительно обученной модели выполнению конкретной задачи, например генерации изображений косаток.

Точная настройка может включать любую комбинацию следующих стратегий:

  • Изменение всех существующих параметров предварительно обученной модели. Иногда это называют полной тонкой настройкой .
  • Изменение только некоторых существующих параметров предварительно обученной модели (обычно слоев, ближайших к выходному слою ), сохраняя при этом другие существующие параметры неизменными (обычно слои, ближайшие к входному слою ). См. настройку с эффективным использованием параметров .
  • Добавление дополнительных слоев, обычно поверх существующих слоев, ближайших к выходному слою.

Точная настройка — это форма трансферного обучения . Таким образом, при точной настройке может использоваться другая функция потерь или другой тип модели, чем те, которые используются для обучения предварительно обученной модели. Например, вы можете точно настроить предварительно обученную модель большого изображения для создания регрессионной модели, которая возвращает количество птиц во входном изображении.

Сравните и сопоставьте тонкую настройку со следующими терминами:

Лен

#язык

Высокопроизводительная библиотека с открытым исходным кодом для глубокого обучения, построенная на основе JAX . Flax предоставляет функции для обучения нейронных сетей , а также методы оценки их производительности.

льноформер

#язык

Библиотека Transformer с открытым исходным кодом, построенная на Flax и предназначенная в первую очередь для обработки естественного языка и мультимодальных исследований.

Г

генеративный ИИ

#язык
#изображение
#генеративныйИИ

Возникающее преобразующее поле без формального определения. Тем не менее, большинство экспертов сходятся во мнении, что генеративные модели ИИ могут создавать («генерировать») контент, который имеет все следующие характеристики:

  • сложный
  • последовательный
  • оригинальный

Например, генеративная модель ИИ может создавать сложные эссе или изображения.

Некоторые более ранние технологии, включая LSTM и RNN , также могут генерировать оригинальный и связный контент. Некоторые эксперты рассматривают эти более ранние технологии как генеративный ИИ, в то время как другие считают, что настоящий генеративный ИИ требует более сложных результатов, чем те, которые могут произвести более ранние технологии.

Сравните с прогнозным ML .

GPT (Генераторный предварительно обученный трансформатор)

#язык

Семейство больших языковых моделей на основе Transformer , разработанное OpenAI .

Варианты GPT могут применяться к нескольким модальностям , в том числе:

  • генерация изображений (например, ImageGPT)
  • генерация текста в изображение (например, DALL-E ).

ЧАС

галлюцинация

#язык

Производство кажущихся правдоподобными, но на самом деле неверных результатов с помощью генеративной модели ИИ , которая якобы делает утверждение о реальном мире. Например, генеративная модель искусственного интеллекта, утверждающая, что Барак Обама умер в 1865 году, является галлюцинацией .

я

обучение в контексте

#язык
#генеративныйИИ

Синоним « подсказки с несколькими выстрелами» .

л

LaMDA (Языковая модель для диалоговых приложений)

#язык

Модель большого языка на основе Transformer , разработанная Google, обученная на большом наборе диалоговых данных, которая может генерировать реалистичные разговорные ответы.

LaMDA: наша революционная технология общения дает обзор.

языковая модель

#язык

Модель , которая оценивает вероятность появления токена или последовательности токенов в более длинной последовательности токенов.

большая языковая модель

#язык

Неофициальный термин без строгого определения, который обычно означает языковую модель с большим количеством параметров . Некоторые крупные языковые модели содержат более 100 миллиардов параметров.

скрытое пространство

#язык

Синоним встраивания пространства .

Магистр права

#язык

Аббревиатура для большой языковой модели .

ЛоРА

#язык
#генеративныйИИ

Аббревиатура для адаптивности низкого ранга .

Адаптивность низкого ранга (LoRA)

#язык
#генеративныйИИ

Алгоритм эффективной настройки параметров , который позволяет точно настроить только подмножество параметров большой языковой модели . LoRA предоставляет следующие преимущества:

  • Точная настройка выполняется быстрее, чем методы, требующие точной настройки всех параметров модели.
  • Уменьшает вычислительные затраты на вывод в точно настроенной модели.

Модель, настроенная с помощью LoRA, сохраняет или улучшает качество своих прогнозов.

LoRA позволяет использовать несколько специализированных версий модели.

М

модель языка в масках

#язык

Языковая модель , которая прогнозирует вероятность того, что токены-кандидаты заполнят пробелы в последовательности. Например, модель языка в масках может вычислить вероятность того, что слова-кандидаты заменят подчеркивание в следующем предложении:

____ в шляпе вернулся.

В литературе обычно вместо подчеркивания используется строка «МАСКА». Например:

"МАСКА" в шапке вернулась.

Большинство современных моделей замаскированного языка являются двунаправленными .

метаобучение

#язык

Подмножество машинного обучения, которое обнаруживает или улучшает алгоритм обучения. Система метаобучения также может быть нацелена на обучение модели быстрому изучению новой задачи на основе небольшого объема данных или опыта, полученного при выполнении предыдущих задач. Алгоритмы метаобучения обычно пытаются достичь следующего:

  • Улучшите или изучите функции, разработанные вручную (например, инициализатор или оптимизатор).
  • Будьте более эффективными в использовании данных и вычислений.
  • Улучшить обобщение.

Метаобучение связано с обучением в несколько этапов .

модальность

#язык

Категория данных высокого уровня. Например, числа, текст, изображения, видео и аудио — это пять разных модальностей.

модельный параллелизм

#язык

Способ масштабирования обучения или вывода, при котором разные части одной модели размещаются на разных устройствах . Параллелизм моделей позволяет создавать модели, которые слишком велики для размещения на одном устройстве.

Чтобы реализовать параллелизм моделей, система обычно делает следующее:

  1. Шардирует (делит) модель на более мелкие части.
  2. Распределяет обучение этих более мелких частей по нескольким процессорам. Каждый процессор обучает свою часть модели.
  3. Объединяет результаты для создания единой модели.

Параллелизм моделей замедляет обучение.

См. также параллелизм данных .

многоголовый самообслуживание

#язык

Расширение внутреннего внимания , которое применяет механизм внутреннего внимания несколько раз для каждой позиции во входной последовательности.

Трансформеры представили многоголовое самообслуживание.

мультимодальная модель

#язык

Модель, входные и/или выходные данные которой включают более одной модальности . Например, рассмотрим модель, которая принимает как изображение, так и текстовую подпись (две модальности) в качестве функций и выводит оценку, показывающую, насколько текстовая подпись соответствует изображению. Итак, входные данные этой модели являются мультимодальными, а выходные — унимодальными.

Н

понимание естественного языка

#язык

Определение намерений пользователя на основе того, что пользователь напечатал или сказал. Например, поисковая система использует понимание естественного языка, чтобы определить, что ищет пользователь, на основе того, что он набрал или сказал.

N-грамм

#seq
#язык

Упорядоченная последовательность из N слов. Например, по-настоящему безумно – это 2-грамма. Поскольку порядок важен, «безумно по-настоящему» — это разные 2 грамма, чем «по-настоящему безумно» .

Н Имена для этого типа N-граммы Примеры
2 биграмм или 2-грамма пойти, пойти, пообедать, поужинать
3 триграмма или 3-грамма слишком много съел, три слепые мыши, звонит колокол
4 4-граммовый прогулка в парке, пыль на ветру, мальчик съел чечевицу

Многие модели понимания естественного языка полагаются на N-граммы, чтобы предсказать следующее слово, которое пользователь напечатает или скажет. Например, предположим, что пользователь набрал три слепых . Модель NLU, основанная на триграммах, скорее всего, предскажет, что следующим пользователем будут мыши .

Сравните N-граммы с мешком слов , которые представляют собой неупорядоченные наборы слов.

НЛУ

#язык

Аббревиатура для понимания естественного языка .

О

одноразовая подсказка

#язык
#генеративныйИИ

Приглашение , содержащее один пример, демонстрирующий, как должна реагировать большая языковая модель . Например, следующая подсказка содержит один пример, показывающий, как большая языковая модель должна отвечать на запрос.

Части одной подсказки Примечания
Какая официальная валюта указанной страны? Вопрос, на который вы хотите получить ответ от LLM.
Франция: евро Один пример.
Индия: Фактический запрос.

Сравните и сопоставьте одноразовые подсказки со следующими терминами:

П

настройка с эффективным использованием параметров

#язык
#генеративныйИИ

Набор методов для более эффективной тонкой настройки большой предварительно обученной языковой модели (PLM), чем полная точная настройка . При настройке с эффективным использованием параметров обычно выполняется гораздо меньше параметров, чем при полной точной настройке, но, как правило, создается большая языковая модель , которая работает так же хорошо (или почти так же хорошо), как и большая языковая модель, построенная на основе полной точной настройки.

Сравните и сопоставьте эффективную настройку параметров с:

Настройка с эффективным использованием параметров также известна как точная настройка с эффективным использованием параметров .

трубопровод

#язык

Форма параллелизма моделей , при которой обработка модели разделена на последовательные этапы, и каждый этап выполняется на отдельном устройстве. Пока этап обрабатывает один пакет, предыдущий этап может работать над следующим пакетом.

См. также поэтапное обучение .

ПЛМ

#язык
#генеративныйИИ

Аббревиатура предварительно обученной языковой модели .

позиционное кодирование

#язык

Метод добавления информации о положении токена в последовательности во встраивание токена. Модели-трансформеры используют позиционное кодирование, чтобы лучше понять взаимосвязь между различными частями последовательности.

Общая реализация позиционного кодирования использует синусоидальную функцию. (В частности, частота и амплитуда синусоидальной функции определяются положением токена в последовательности.) Этот метод позволяет модели Трансформатора научиться обращать внимание на различные части последовательности в зависимости от их положения.

предварительно обученная модель

#язык
#изображение
#генеративныйИИ

Модели или компоненты модели (например, вектор внедрения ), которые уже прошли обучение. Иногда вы вводите в нейронную сеть предварительно обученные векторы внедрения. В других случаях ваша модель будет обучать сами векторы внедрения, а не полагаться на предварительно обученные вектора внедрения.

Термин «предварительно обученная языковая модель» относится к большой языковой модели , прошедшей предварительное обучение .

предварительная подготовка

#язык
#изображение
#генеративныйИИ

Начальное обучение модели на большом наборе данных. Некоторые предварительно обученные модели являются неуклюжими гигантами и обычно требуют доработки посредством дополнительного обучения. Например, эксперты по машинному обучению могут предварительно обучить большую языковую модель на обширном наборе текстовых данных, например на всех английских страницах в Википедии. После предварительного обучения полученная модель может быть дополнительно уточнена с помощью любого из следующих методов:

быстрый

#язык
#генеративныйИИ

Любой текст, вводимый в качестве входных данных в большую языковую модель , чтобы заставить модель вести себя определенным образом. Подсказки могут быть короткими, как фраза, или произвольной длины (например, весь текст романа). Подсказки делятся на несколько категорий, включая те, которые показаны в следующей таблице:

Категория подсказки Пример Примечания
Вопрос Как быстро может летать голубь?
Инструкция Напишите забавное стихотворение об арбитраже. Подсказка, которая просит большую языковую модель что-то сделать .
Пример Переведите код Markdown в HTML. Например:
Уценка: * элемент списка
HTML: <ul> <li>элемент списка</li> </ul>
Первое предложение в этом примере приглашения представляет собой инструкцию. Оставшаяся часть приглашения является примером.
Роль Объясните, почему градиентный спуск используется при обучении машинному обучению для доктора философии по физике. Первая часть предложения представляет собой инструкцию; фраза «до степени доктора физики» является ролевой частью.
Частичный ввод для завершения модели Премьер-министр Соединенного Королевства живет в Подсказка частичного ввода может либо внезапно закончиться (как в этом примере), либо закончиться подчеркиванием.

Генеративная модель ИИ может отвечать на запрос текстом, кодом, изображениями, встраиваниями , видео… почти чем угодно.

быстрое обучение

#язык
#генеративныйИИ

Способность определенных моделей , позволяющая им адаптировать свое поведение в ответ на произвольный ввод текста ( подсказки ). В типичной парадигме обучения на основе подсказок большая языковая модель реагирует на подсказку, генерируя текст. Например, предположим, что пользователь вводит следующую подсказку:

Кратко изложите третий закон движения Ньютона.

Модель, способная к обучению на основе подсказок, специально не обучена отвечать на предыдущую подсказку. Скорее, модель «знает» много фактов о физике, много об общих правилах языка и многое о том, что представляет собой вообще полезные ответы. Этих знаний достаточно, чтобы дать (надеюсь) полезный ответ. Дополнительная обратная связь от человека («Этот ответ был слишком сложным» или «Какая реакция?») позволяет некоторым системам обучения на основе подсказок постепенно повышать полезность своих ответов.

быстрый дизайн

#язык
#генеративныйИИ

Синоним оперативного проектирования .

оперативное проектирование

#язык
#generativeai

Искусство создания подсказок , которые вызывают желаемые ответы из большой языковой модели . Люди выполняют быструю инженерию. Написание хорошо структурированных подсказок является неотъемлемой частью обеспечения полезных ответов из крупной языковой модели. Обратная техническая инженерия зависит от многих факторов, в том числе:

См. Введение в inmport Design для получения более подробной информации о написании полезных подсказок.

Щелкий дизайн является синонимом быстрого проектирования.

быстрое настройка

#язык
#generativeai

Параметр эффективный механизм настройки , который изучает «префикс», который система приносит к фактической подсказке .

Один вариант быстрого настройки - иногда называемый настройкой префикса - состоит в том, чтобы подготовить префикс на каждом слое . Напротив, большинство быстрого настройки только добавляет префикс к входному слою .

Р

Роль подсказка

#язык
#generativeai

Необязательная часть подсказки , которая идентифицирует целевую аудиторию для реакции генеративной модели ИИ . Без ролевой подсказки крупная языковая модель предоставляет ответ, который может быть или не быть полезным для человека, задающего вопросы. Благодаря ролевой подсказке, большая языковая модель может ответить более уместным и более полезным для конкретной целевой аудитории. Например, ролевая часть следующих подсказок находится в жирном шрифте:

  • Суммируйте эту статью для доктора наук в области экономики .
  • Опишите, как приливы работают для десятилетнего .
  • Объясните финансовый кризис 2008 года. Говорите, как вы могли бы маленького ребенка или золотистого ретривера.

С

Самоализация (также называется слоем самоуправления)

#язык

Слой нейронной сети, который превращает последовательность встроений (например, встроенные токен ) в другую последовательность встраиваний. Каждое встраивание в выходную последовательность построена путем интеграции информации из элементов входной последовательности с помощью механизма внимания .

Самостоятельная часть самопринимания относится к последовательности, присутствующей на себе, а не к какому-либо другому контексту. Самоализация является одним из основных строительных блоков для трансформаторов и использует терминологию поиска словаря, такую ​​как «запрос», «ключ» и «ценность».

Слои с самопринятым начинается с последовательности входных представлений, по одному для каждого слова. Входное представление для слова может быть простым внедрением. Для каждого слова в входной последовательности сеть оценивает актуальность слова для каждого элемента во всей последовательности слов. Оценки актуальности определяют, насколько окончательное представление слова включает представления других слов.

Например, рассмотрим следующее предложение:

Животное не пересекало улицу, потому что оно было слишком уставшим.

Следующая иллюстрация (от Transformer: новая архитектура нейронной сети для понимания языка ) показывает шаблон внимания слоя самостоятельного приспособления для местоимения , с темнотой каждой строки, указывающей, насколько каждое слово способствует представлению:

Следующее предложение появляется дважды: животное не пересекало улицу, потому что оно слишком устало. Линии соединяют местоимение в одном предложении с пятью токенами (животное, улица, это и период) в другом предложении.  Граница между местоимением оно и словом животного является самой сильной.

Слои с самопринятым подчеркивает слова, которые имеют отношение к «это». В этом случае слой внимания научился выделять слова, на которые он может ссылаться, присвоив самый высокий вес животному .

Для последовательности n токенов самоуверенность преобразует последовательность встроенных n отдельных времен, один раз в каждой позиции в последовательности.

Обратитесь к вниманию и многообещающемуся самоуничтожению .

анализ настроений

#язык

Использование статистических или алгоритмов машинного обучения для определения общего отношения группы - позитивного или негативного, - поместить услугу, продукт, организацию или тему. Например, используя понимание естественного языка , алгоритм может провести анализ настроений на текстовую обратную связь от университетского курса, чтобы определить степень, в которой студенты обычно нравились или не нравились курс.

Задача последовательности к последовательности

#язык

Задача, которая преобразует входную последовательность токенов в выходную последовательность токенов. Например, два популярных вида задач последовательности к последовательности:

  • Переводчики:
    • Пример входной последовательности: «Я люблю тебя».
    • Образец вывода последовательности: «Je t'aime».
  • Ответ на вопрос:
    • Пример входной последовательности: «Нужна ли мне моя машина в Нью -Йорке?»
    • Образец вывода: «Нет. Пожалуйста, держите свой автомобиль дома».

пропустить грамм

#язык

N-грамм , который может опустить (или «пропустить») слова из исходного контекста, что означает, что n слов, возможно, не были изначально смежными. Точнее, «K-Skip-N-Gram»-это N-грамм, для которого можно было пропустить до k слов.

Например, «Quick Brown Fox» имеет следующие возможные 2 грамма:

  • "Быстро"
  • "Быстрый коричневый"
  • "Brown Fox"

«1-SKIP-2-грамм»-это пара слов, которые имеют не более 1 слова между ними. Поэтому «быстрый коричневый лис» имеет следующие 1-граммы: 2-граммы:

  • "Браун"
  • "Quick Fox"

Кроме того, все 2 грамма также составляют 1-шкип-2-граммы, так как может быть пропущено менее одного слова.

Скип-граммы полезны для понимания большего количества окружающего контекста слова. В примере «Fox» был непосредственно связан с «быстрым» в наборе 1-грамм 1-шкаф, но не в наборе 2 граммов.

Скип-граммы помогают обучать модели встраивания слов .

Мягкая приглашенная настройка

#язык
#generativeai

Техника для настройки большой языковой модели для конкретной задачи, без интенсивной настройки ресурсов. Вместо переподготовки всех весов в модели, мягкая настройка приглашения автоматически регулирует подсказку для достижения одной и той же цели.

Учитывая текстовую подсказку, настройка мягкой подсказки обычно добавляет дополнительные встроенные токеновые вставки в подсказку и использует BackPropagation для оптимизации ввода.

«Жесткое» подсказка содержит фактические токены вместо встроенных токенов.

редкая функция

#язык
#fundamentals

Функция , значения которых преимущественно нулевые или пустые. Например, функция, содержащая одно 1 значение и значения миллиона 0, является редкой. Напротив, плотная функция имеет значения, которые преимущественно не являются нулевыми или пустыми.

В машинном обучении неожиданное количество функций - редкие функции. Категориальные особенности обычно являются редкими функциями. Например, из 300 возможных видов деревьев в лесу один пример может идентифицировать только кленовое дерево . Или из миллионов возможных видео в видео библиотеке, один пример может идентифицировать только «Касабланку».

В модели вы, как правило, представляете редкие функции с однократным кодированием . Если однокачественное кодирование большое, вы можете поместить встраивающий слой поверх однокачественного кодирования для большей эффективности.

редкое представление

#язык
#fundamentals

Хранение только позиции (ы) ненулевых элементов в редкой функции.

Например, предположим, что категориальная особенность, названная species , идентифицирует 36 видов деревьев в конкретном лесу. Далее предположим, что каждый пример идентифицирует только один вид.

Вы можете использовать одножелачный вектор для представления видов деревьев в каждом примере. Одножележный вектор будет содержать один 1 (для представления конкретных видов деревьев в этом примере) и 35 0 с (для представления 35 видов деревьев не в этом примере). Таким образом, одножелательное представление о maple может выглядеть как-то вроде следующего:

Вектор, в котором позиции от 0 до 23 удерживают значение 0, позиция 24 удерживает значение 1, а позиции с 25 по 35 удерживают значение 0.

В качестве альтернативы, разреженное представление просто идентифицирует положение конкретного вида. Если maple находится в позиции 24, то разреженное представление о maple было бы просто:

24

Обратите внимание, что редкое представление гораздо более компактно, чем одножелательное представление.

поэтапное обучение

#язык

Тактика обучения модели в последовательности дискретных этапов. Цель может быть либо ускорить тренировочный процесс, либо достичь лучшего качества модели.

Ниже показана иллюстрация подхода прогрессивной укладки:

  • Стадия 1 содержит 3 скрытых слоя, этап 2 содержит 6 скрытых слоев, а этапа 3 содержит 12 скрытых слоев.
  • Стадия 2 начинает тренировки с весами, изученными в 3 скрытых слоях стадии 1. Стадия 3 начинает тренировки с весами, изученными в 6 скрытых слоях этапа 2.

Три этапа, которые являются помеченными этапами 1, этапа 2 и стадии 3. Каждый этап содержит различное количество слоев: стадия 1 содержит 3 слоя, этап 2 содержит 6 слоев, а этап 3 содержит 12 слоев.           3 слоя со стадии 1 становятся первыми 3 слоями стадии 2. Точно так же 6 слоев со стадии 2 становятся первыми 6 слоями стадии 3.

Смотрите также трубопровод .

токен подвестия

#язык

В языковых моделях , токен , который представляет собой подстроение слова, которое может быть всем словом.

Например, слово, подобное «electize», может быть разбито на части «элемент» (корневое слово) и «ize» (суффикс), каждый из которых представлен своим собственным токеном. Разделение необычных слов на такие произведения, называемые подчиками, позволяет языковым моделям работать на более распространенных частях слова, таких как префиксы и суффиксы.

И наоборот, общие слова, такие как «Going», не могут быть разбиты и могут быть представлены одним токеном.

Т

Т5

#язык

Модель обучения передачи текста в текст, представленная Google AI в 2020 году . T5 - это модель Encoder - декодер , основанная на архитектуре трансформатора , обученная чрезвычайно большим набором данных. Он эффективен в различных задачах по обработке естественного языка, таких как создание текста, перевод языков и ответы на вопросы в разговорной форме.

T5 получает свое название от Five T в «Трансформатор Text-Text Transfer».

T5X

#язык

Основная структура машинного обучения с открытым исходным кодом, предназначенная для создания и обучения крупномасштабных моделей обработки естественного языка (NLP). T5 реализован на кодовой базе T5X (которая построена на JAX и лене ).

температура

#язык
#изображение
#generativeai

Гиперпараметр , который контролирует степень случайности вывода модели. Более высокие температуры приводят к более случайной мощности, в то время как более низкие температуры приводят к менее случайной мощности.

Выбор наилучшей температуры зависит от конкретного применения и предпочтительных свойств выхода модели. Например, вы, вероятно, повысите температуру при создании приложения, которое генерирует творческий выход. И наоборот, вы, вероятно, снизили бы температуру при создании модели, которая классифицирует изображения или текст, чтобы повысить точность и согласованность модели.

Температура часто используется с Softmax .

текстовый промежуток

#язык

Индекс массива, связанный с определенным подразделением текстовой строки. Например, слово good в строке Python s="Be good now" занимает текстовый промежуток от 3 до 6.

жетон

#язык

В языковой модели атомная единица, на которой тренируется модель и делая прогнозы. Токен обычно является одним из следующих:

  • Слово - например, фраза «собаки, такие как кошки», состоит из трех токенов слова: «собаки», «как» и «кошки».
  • Персонаж, например, фраза «велосипедная рыба» состоит из девяти токенов персонажа. (Обратите внимание, что пустое пространство считается одним из токенов.)
  • подвесы, в которых одно слово может быть единственным токеном или множественными токенами. Подвесность состоит из корневого слова, префикса или суффикса. Например, языковая модель, которая использует подвесы в качестве токенов, может рассматривать слово «собаки» как два токена (корневое слово «собака» и суффикс множественного числа «S»). Эта же языковая модель может рассматривать единственное слово «выше» как две подчинки (корневое слово «высокое» и суффикс «ER»).

В областях вне языковых моделей токены могут представлять другие виды атомных единиц. Например, в компьютерном зрении токен может быть подмножеством изображения.

Трансформатор

#язык

Архитектура нейронной сети , разработанная в Google, которая опирается на механизмы самоприщепления , чтобы преобразовать последовательность входных встроений в последовательность выходных встроений, не полагаясь на сверка или повторяющиеся нейронные сети . Трансформатор можно рассматривать как стопку у слоев самосознания.

Трансформатор может включать любое из следующего:

Энкодер преобразует последовательность встроенных в новую последовательность одинаковой длины. Энкодер включает в себя n идентичных слоев, каждый из которых содержит два подслои. Эти два подслои применяются в каждом положении последовательности ввода входного ввода, преобразуя каждый элемент последовательности в новое встраивание. Первый подслойный подслойный агрегирует информацию через входную последовательность. Второй подслойный подслойка преобразует агрегированную информацию в выходной встраивание.

Декодер преобразует последовательность входных встроений в последовательность выходных встроений, возможно, с другой длиной. Декодер также включает в себя n идентичных слоев с тремя подслоями, два из которых аналогичны подслоям Encoder. Третий подслой декодера берет вывод энкодера и применяет механизм самосознания для сбора информации из него.

Трансформатор сообщения в блоге: новая архитектура нейронной сети для языкового понимания обеспечивает хорошее введение в трансформаторы.

Триграмм

#seq
#язык

N-грамм , в котором n = 3.

ты

однонаправленный

#язык

Система, которая оценивает только текст, который предшествует целевому разделу текста. Напротив, двунаправленная система оценивает как текст, который предшествует и следует целевому разделу текста. Смотрите двунаправление для более подробной информации.

Модель однонаправленного языка

#язык

Языковая модель , которая основывает свои вероятности только на токенах , появляющихся ранее , не после , целевого токена (ы). Контраст с двунаправленной языковой моделью .

В

вариационный автоэкодер (VAE)

#язык

Тип автоэкодора , который использует расхождение между входами и выходами для генерации модифицированных версий входов. Вариационные автоэкодоры полезны для генеративного ИИ .

VAE основаны на вариационном выводе: метод оценки параметров модели вероятности.

Вт

Слово внедрение

#язык

Представлять каждое слово в слово, установленное в векторе встраивания ; то есть представлять каждое слово как вектор значений с плавающей точкой от 0,0 до 1,0. Слова с похожими значениями имеют более разнообразные представления, чем слова с разными значениями. Например, морковь , сельдерей и огурцы будут иметь относительно похожие представления, которые сильно отличались от представлений самолетов , солнцезащитных очков и зубной пасты .

З

нулевое побуждение

#язык
#generativeai

Подсказка , которая не дает примера того, как вы хотите, чтобы большая языковая модель ответила. Например:

Части одного подсказки Примечания
Какова официальная валюта указанной страны? Вопрос, на который вы хотите ответить LLM.
Индия: Фактический запрос.

Большая языковая модель может ответить любым из следующего:

  • Рупия
  • индийская рупия
  • Индийская рупия
  • Рупия
  • Индийская рупия

Все ответы верны, хотя вы можете предпочесть конкретный формат.

Сравните и сопоставьте подсказку с нулевым выстрелом со следующими терминами: