Русская Википедия:Generative pre-trained transformer

Материал из Онлайн справочника
Перейти к навигацииПерейти к поиску

Шаблон:Значения

Файл:Full GPT architecture.png
Оригинальная языковая модель GPT

Generative pre-trained transformer или GPT (Шаблон:Lang-ru) — это тип нейронных языковых моделей, впервые представленных компанией OpenAI, которые обучаются на больших наборах текстовых данных, чтобы генерировать текст, схожий с человеческим. Предобучение относится к начальному процессу обучения на корпусе, в результате которого модель учится предсказывать следующее слово в тексте и получает основу для успешного выполнения дальнейших задач, не имея больших объёмов данных. GPT являются «трансформерами», которые представляют собой тип нейросетей, использующих механизм самосвязываемости для обработки последовательных данных. Они могут быть дообучены для различных задач обработки естественного языка (NLP), таких как генерация текста, машинный перевод и классификация текста.

Языковые модели GPT от OpenAI

Шаблон:Further 11 июня 2018 года компания OpenAI опубликовала статью под названием «Improving Language Understanding by Generative Pre-Training», в которой был представлен Генеративный Предобученный Трансформер (GPT)[1]. До этого момента лучшие нейронные модели обработки естественного языка, в основном использовали обучение с учителем на больших объёмах вручную размеченных данных. Это ограничивало их применение на недостаточно размеченных наборах данных, а также делало крайне дорогим и времязатратным обучение очень больших языковых моделей[2]. Кроме того, многие языки (такие как суахили или гаитянский креольский) были трудны в переводе и интерпретации с помощью таких моделей из-за отсутствия достаточного количества текстов на данных языках[2]. Предложенный OpenAI подход Шаблон:Не переведено 3 обучения на основе модели GPT включает два этапа:

  1. несобственное генеративное «предварительное» обучение, на котором устанавливаются начальные параметры путем обучения модели языковым моделированием
  2. собственное Шаблон:Не переведено 3 «дообучающее» обучение, на котором эти параметры адаптируются к конкретной задаче.
Версии GPT от OpenAI
Использование Архитектура Количество параметров Тренировочные данные Дата выпуска
GPT-1 Общее 12-уровневый декодер-трансформер с 12 головками (без кодировщика), за которым следует линейный софтмакс. 117 миллионов BookCorpus: 4,5 ГБ текста из 7000 неизданных книг разных жанров.[3] 11 июня 2018[4]
Шаблон:Не переведено 3 Общее GPT-1, но с изменённой Шаблон:Не переведено 3. 1.5 миллиардов (Шаблон:Рост1273000 %) WebText: 40 ГБ текста и 8 миллионов документов из 40 миллионов веб-страниц за которые проголосовали на Reddit. 14 февраля 2019
GPT-3 Общее GPT-2, но с изменениями для возможности масштабирования в большем объёме. 175 миллиардов (Шаблон:Рост11566 %) 570 ГБ обычного текста, 0,4 трлн токенов. В основном содержит данные из наборов данных CommonCrawl, WebText, английской Википедии, а также BookCorpus. 11 июня 2020[5]
InstructGPT (GPT-3.5) Разговор GPT-3, Шаблон:Не переведено 3 для выполнения инструкций с использованием обратной связи с человеком. 175 миллиардов[6] Шаблон:Dunno 4 марта 2022
ChatGPT Диалог Использует GPT-3.5 и Шаблон:Не переведено 3 (подход к Шаблон:Не переведено 3) как с обучением с учителем, так и с RLHF (Обучение с подкреплением на основе отзывов людей). Шаблон:Dunno Шаблон:Dunno 30 ноября 2022
GPT-4 Общее Также обучен на основе предсказания текста и основан на обучении с подкреплением. Принимает как текст, так и изображения. Дополнительные подробности не разглашаются.[7] Шаблон:Dunno Шаблон:Dunno 14 марта 2023

Другие (производные) модели GPT

После того, как OpenAI выпустила свою модель GPT-3, EleutherAI выпустила ряд больших языковых моделей (LLM) с открытым исходным кодом, и её модель GPT-J привлекла значительное внимание как альтернативная. С этих пор появляются новые языковые модели на основе GPT.

Основные GPT от других разработчиков
Использование Архитектура Количество параметров Тренировочные данные Дата выпуска Разработчик
GPT-J Общее Параллельный декодер 6 миллиардов Набор данных объёмом 825 ГБ с открытым исходным кодом (называемый «кучей») 9 июня 2021 EleutherAI
BLOOM Общее Трансформер только для декодера 176 миллиардов Данные 46 естественных языков и 13 языков программирования; Всего 1,6 терабайт предварительно обработанного текста. 6 июля 2022 Hugging Face
BioGPT Биомедицинский контент[8][9] Как в GPT-2 Medium (24 слоев, 16 головок) 347 миллионов Непустые записи из PubMed (всего 1,5 миллиона). 24 сентября 2022 Microsoft

Примечания

Шаблон:Примечания

Шаблон:Обработка естественного языка Шаблон:Искусственный интеллект Шаблон:Машинное обучение