Предметное моделирование: Предметное моделирование и визуализация за 1500 руб., исполнитель Андрей (Sheffand) – Kwork

Моделирование — Гуманитарный портал

Моделирование — это метод воспроизведения и исследования определённого фрагмента действительности (предмета, явления, процесса, ситуации) или управления им, основанный на представлении объекта с помощью его копии или подобия — модели (см. Модель). Модель обычно представляет собой либо материальную копию оригинала, либо некоторый условный образ, представленный в абстрактной (мысленной или знаковой) форме и содержащий существенные свойства моделируемого объекта. Процедуры создания моделей широко используются как в научно-теоретических, так и в прикладных сферах человеческой деятельности.

В научном познании (см. Наука) модель рассматривается как «объект-подобие» или «объект-заместитель» объекта-оригинала, воспроизводящий определённые его характеристики. В этом смысле модель всегда соответствует объекту-оригиналу — в тех свойствах, которые подлежат изучению, но в то же время отличается от него по ряду других признаков, что делает модель удобной для исследования изучаемого объекта. Результаты разработки и исследования моделей при определённых условиях, принимаемых в методологии науки и специфических для различных областей и типов моделей, распространяются на оригинал. Использование метода моделирования в научном познании диктуется необходимостью раскрыть такие стороны объектов, которые либо невозможно постигнуть путём непосредственного изучения, либо непродуктивно изучать их таким образом в силу каких-либо ограничений.

В научном познании возможны два способа моделирования:

  1. Эмпирический способ моделирования — подразумевает воссоздание эмпирически выявленных свойств и связей объекта в его модели.
  2. Теоретический способ моделирования — подразумевает теоретическое воссоздание объекта в его модели.

Модели, применяемые в научном познании, разделяются на два больших класса:

  1. Материальные модели представляют собой природные объекты, подчиняющиеся в своём функционировании естественным законам. Подразделяются на два основных вида: предметно-физические и предметно-математические модели.
  2. Идеальные модели представляют собой идеальные образования, зафиксированные в соответствующей знаковой форме и функционирующие по законам логики мышления, отражающей мир. Подразделяются на два основных вида:
    идеализированные модельные представления
    и знаковые модели.

Соответственно указанным различениям выделяют основные разновидности моделирования. Каждое из них применяется в зависимости от особенностей изучаемого объекта и характера познавательных задач.

Предметно-физическое моделирование широко используется как в научной практике, так и в сфере материального производства. Такое моделирование всегда предполагает, что модель должна быть сходна с оригиналом по физической природе и отличаться от него лишь численными значениями ряда параметров. Наряду с этим в практике научного исследования часто используется и такой вид моделирования, при котором модель строится из объектов иной физической природы, чем оригинал, но описывается одинаковой с ним системой математических зависимостей. В отличие от предметно-физического этот вид моделирования называют предметно-математическим. Предметная модель становится здесь объектом испытания и изучения, в результате которого создаётся её математическое описание. Последнее затем переносится на моделируемый объект, характеризуя его структуру и функционирование.

В развитой науке, особенно при переходе к теоретическим исследованиям, широко используется моделирование с применением идеальных моделей. Этот способ получения знаний об объектах может быть охарактеризован как моделирование посредством

идеализированных представлений. Он является ведущим инструментом теоретического исследования. Активно используя модельные представления, научное исследование вместе с тем применяет и так называемое знаковое моделирование, которое основано на построении и испытании математических моделей некоторого класса явлений, без использования при этом вспомогательного физического объекта, который подвергается испытанию. Последнее отличает знаковую модель от предметно-математической. Такой вид моделирования иногда называют также абстрактно-математическим. Он требует построения знаковой модели, представляющей некоторый объект, где отношения и свойства объекта представлены в виде знаков и их связей. Эта модель затем исследуется чисто логическими средствами, и новое знание возникает в результате дедуктивного развёртывания модели без обращения к предметной области, на основании которой выросла данная знаковая модель. В абстрактно-математическом моделировании модель — это конструкция, изоморфная моделируемой системе. При таком моделировании каждому объекту системы ставится в соответствие определённый элемент моделирующей конструкции, а свойствам и отношениям объектов соответствуют свойства и отношения элементов.

Классическими примерами моделей, основанных на изоморфизме, являются модели аксиоматических систем в математике. Они задают семантику формальных построений и создают возможность для содержательной интерпретации аксиом. Сами аксиомы, как и следствия из них, считаются предложениями некоторого формального языка. Кроме того, задана область интерпретаций, представляющая собой множество индивидных объектов. Изоморфизм задаётся функцией, сопоставляющей каждому имени языка некоторый объект из заданного множества, а каждому выражению языка некоторое отношение объектов этого же множества. Если любое высказывание, которое выведено из аксиом, истинно в области интерпретаций (то есть соответствует реальным отношениям объектов), то эта область называется моделью системы аксиом. Моделирование в математике используется, например, для доказательства непротиворечивости формальных систем.

Этот вид моделирования используется не только в чистой математике, но также при математическом описании природных, общественных, технологических и других сложных систем. Смысл такого описания состоит в том, что отношения между элементами системы выражаются с помощью уравнений, причём так, чтобы каждому термину содержательного описания системы соответствовала какая-либо величина (константа или переменная) или функция, фигурирующая в уравнении. Сами уравнения называются при этом моделью. Как правило, абстрактно-математическое моделирование требует

абстракции (см. Абстракция), то есть отвлечения от некоторых свойств и отношений в моделируемой системе. Это позволяет достичь общности модели и утверждать, что она, игнорируя частности, описывает достаточно широкий круг процессов или систем. К тому же без таких упрощений моделирование оказывается бессмысленным (из-за чрезмерной сложности модели) или вообще невозможным. Другим важным гносеологическим условием моделирования является измеримость всех описываемых объектов и отношений. Чтобы построить модель, необходимо найти их числовое представление. Всякий моделируемый процесс должен быть полностью охарактеризован с помощью параметров, поддающихся измерению.

Другая разновидность моделирования с применением идеальных моделей основана на понятии «чёрный ящик». Этим термином принято называть объект, внутренняя структура которого недоступна для наблюдения и о котором можно судить только по его внешнему поведению, в частности по тому, как он преобразует приходящие на вход сигналы. Если некоторая система слишком сложна, то нет смысла искать её математическое описание. Проще попытаться построить вместо неё другую систему, которая при заданных условиях будет вести себя точно так же. Такое моделирование часто используется при исследовании отдельных систем живых организмов с помощью компьютерной симуляции. Описать работу живого организма уравнениями крайне тяжело или вообще невозможно. Но возможно построить компьютерную схему, которая при подаче на вход определённого стимула давала бы на выходе реакцию, тождественную или близкую к реакции моделируемой системы. Если спектр совпадающих входных и выходных процессов достаточно широк, то можно ожидать, что построенная схема точно воспроизводит исследуемый объект.

знаковое моделирование — это… Что такое знаковое моделирование?

знаковое моделирование
мат. sign simulation

Большой англо-русский и русско-английский словарь. 2001.

  • знаковое выражение
  • знаковое отношение

Смотреть что такое «знаковое моделирование» в других словарях:

  • знаковое моделирование — Нрк математическое моделирование Моделирование, основанное на применении знаковой модели. [Сборник рекомендуемых терминов. Выпуск 88. Основы теории подобия и моделирования. Академия наук СССР. Комитет научно технической терминологии. 1973 г.]… …   Справочник технического переводчика

  • знаковое моделирование — знаковое моделирование; отрасл. математическое моделирование Моделирование, основанное на применении знаковом модели …   Политехнический терминологический толковый словарь

  • МОДЕЛИРОВАНИЕ — – один из методов научного познания, включающийся в воспроизведение свойств, структуры и функций объекта познания на специально устроенной его модели, на  его  «заменителе».  В  зависимости  от  характера моделей, используемых в научном… …   Философия науки и техники: тематический словарь

  • МОДЕЛИРОВАНИЕ —         метод исследования объектов познания на их моделях; построение и изучение моделей реально существующих предметов и явлений (органич. и неорганич. систем, инженерных устройств, разнообразных процессов физических, химических, биологических …   Философская энциклопедия

  • МОДЕЛИРОВАНИЕ — 1) метод исследования объектов на их моделях аналогах определённого фрагмента природной или социальной реальности; 2) построение и изучение моделей реально существующих предметов и явлений (орга нич. и неорганич. систем, инж. устройств,… …   Российская педагогическая энциклопедия

  • Моделирование —    1. метод исследования объектов на их моделях аналогах определённого фрагмента природной или социальной реальности;    2. построение и изучение моделей реально существующих предметов и явлений (органических и неорганических систем, инженерных… …   Педагогический терминологический словарь

  • математическое моделирование — знаковое моделирование; отрасл. математическое моделирование Моделирование, основанное на применении знаковом модели. логическое моделирование; отрасл. математическое моделирование; знаково математическое моделирование Моделирование, основанное… …   Политехнический терминологический толковый словарь

  • Имитационное моделирование — Имитационное моделирование: моделирование (знаковое, предметное) технических объектов, основанное на воспроизведении процессов, сопровождающих их существование… Источник: ИНФОРМАЦИОННОЕ ОБЕСПЕЧЕНИЕ ТЕХНИКИ И ОПЕРАТОРСКОЙ ДЕЯТЕЛЬНОСТИ. ЯЗЫК… …   Официальная терминология

  • Интерпретационное моделирование — Интерпретационное моделирование: моделирование (знаковое, предметное) технических объектов, основанное на воспроизведении их устройства и внешних проявлений существования… Источник: ИНФОРМАЦИОННОЕ ОБЕСПЕЧЕНИЕ ТЕХНИКИ И ОПЕРАТОРСКОЙ ДЕЯТЕЛЬНОСТИ …   Официальная терминология

  • имитационное моделирование — 3.9 имитационное моделирование: Моделирование (знаковое, предметное) технических объектов, основанное на воспроизведении процессов, сопровождающих их существование. Источник …   Словарь-справочник терминов нормативно-технической документации

  • интерпретационное моделирование — 3.10 интерпретационное моделирование: Моделирование (знаковое, предметное) технических объектов, основанное на воспроизведении их устройства и внешних проявлений существования. Источник …   Словарь-справочник терминов нормативно-технической документации

Моделирование | Геологический портал GeoKniga

Автор(ы):Давыдова О.П.

Издание:РГУ нефти и газа имени И.М.Губкина, Москва, 2012 г., 2012 стр.

Язык(и)Русский

По данным ГИС установлен эффект необратимого уплотнения глинистой покрышки над нефтяными и газовыми залежами, длительно разрабатываемыми на режиме истощения со снижением пластового давления. Цель проекта – разработка математической модели и программного продукта для моделирования фильтрации воды и уплотнения глин, позволяющих оценить изменение порового давления в покрышке и уменьшение пористости глин во времени.

Конечный продукт – результаты моделирования процесса деформации глинистой покрышки и отжима воды в пласт-коллектор

ТематикаГорючие полезные ископаемые

МеткиМоделирование, Процесс уплотнение, Фильтрация СкачатьСмотреть список доступных файлов

Автор(ы):Ампилов Ю.П.

Издание:Издательство Спектр, Москва, 2008 г., 384 стр., УДК: 550.834/553.98/33.001.336.7, ISBN: 978-5-903930-01-2

Язык(и)Русский

Книга посвящена анализу причин, вызывающих неточности и погрешности в интерпретации разнородных геолого-геофизических данных при построении моделей месторождений нефти и газа. Особое внимание уделено проблемам «на стыках» между звеньями технологической цепи изучения недр, включающей сейсмическую обработку и интерпретацию, геологическое и гидродинамическое моделирование, подсчет запасов и экономическую оценку.

Предназначена для специалистов, занятых изучением недр и проектированием их освоения: геологов, геофизиков, разработчиков, экономистов. Она будет полезна и студентам старших курсов, а также магистрантам и аспирантам этих специализаций

ТематикаГорючие полезные ископаемые, Сейсморазведка

МеткиГаз, Моделирование, Нефть, Сейсмическая интерпретация СкачатьСмотреть список доступных файлов

Издание 2

Автор(ы):Коробейников А.Ф.

Издание:Издательство Томского Политехнического Университета, Томск, 2009 г.

Язык(и)Русский

«Моделирование – построение и изучение моделей реально существующих предметов и явлений (органических и неорганических систем, инженерных устройств, разнообразных процессов – физических, химических, биологических, социальных) и конструируемых объектов для определения либо улучшения их характеристик, рационализации способов их построения, управления ими и т.п. Формы моделирования разнообразны и зависят от используемых моделей и сферы применения моделей. По характеру моделей выделяют предметное и знаковое моделирование». (Философский энциклопедический словарь. М.: Советская энциклопедия, 1983. 381 с.).

ТематикаМатематические методы, Полезные ископаемые

СкачатьСмотреть список доступных файлов

Выпуск 21

Автор(ы):Шакин С.С.

Издание:поиски и разведка рудных ПИ, Иркутск, 1997 г., 10 стр., УДК: 55:51+551.243+553.31+622.1

Язык(и)Русский

Моделирование зоны линейного разрыва методом идентификации широко распространено в смежных науках (геофизике, геохимии), но в тектонике используется пока слабо. Сущность метода состоит в том, что на отрывочной и неполной информации о строении недр и механизмах их образования формируется предварительная модель. Далее она проходит несколько корректировок, критерием для которых является соответствие следствий, получаемых из модели, реальным наблюдениям на объекте исследований.

ТематикаМатематические методы, Полезные ископаемые, Структурная геология

МеткиГеолого-математическая модель, Линейный разрыв, Моделирование, Соколово-Сарбайский рудный район, Тургайский прогиб

Источник:от Автора

СкачатьСмотреть список доступных файлов

Том 121

Автор(ы):Шакин С.С.

Издание:Записки Ленинградского горного института, Ленинград, 1990 г., 8 стр., УДК: 551.24+553.31

Язык(и)Русский

Рассматривается  вопрос   об исследовании  параметров дизъюнктива с использованием опре-жаюших диэъюнктив трешин  по неориентированному  керну  разведочных скважин.  Автор добивался максимальной сходимости расчетной  и фактической  картин  и таким  образом определял   параметры дизъюнктива.   В результате выяснено,  что по данным  трещиноватости керна можно определить только либо положение, либо геологический тип,  либо форму разрывного нарушения,   вызвавшего трешиноватость.

Разрывная зона представляет собой геологическое тело примерно пластинчатой формы сложного внутреннего строения. Внутреннее строение зоны и ее границы, иногда постепенные, фиксируются а породах чаще всего по характеру мелкой трещиноватости, ее виду, густоте, ориентировке. Трещиноватость давно привлекает внимание исследователей как важное в практическом отношении свойство горных пород. <…>

ТематикаПолезные ископаемые, Структурная геология

Источник:от Автора

СкачатьСмотреть список доступных файлов

Издание:43 стр.

Язык(и)Русский (перевод с английского)

Традиционный метод обычного трехмерного определения геологических границ или границ содержаний в значительной степени основывается на времени, необходимом для оцифровки стрингов и точек, а в последующем на создание поверхности или солида. Условное моделирование является альтернативой обычного моделирования, метод основан на функции объема.

Это функция объема может быть использована для построения модели, отображающей содержания, литологию или геологические поверхности в трехмерной среде, а также снимает необходимость тратить время на оцифровку. Преимущество условного моделирования, что оно занимает меньше времени, и порой оно работает лучше при оцифровке сложной геологической ситуации. Условное моделирование может также помочь специалисту увидеть тренд в геологических данных, обнаружить складки и разломы.

Условное моделирование работает как с густой, так и редкой разведочной сетью или с их комбинацией. Оно также будет хорошо работать с несистематической разведочной сетью (когда сложно использовать при моделировании обычным методом).

Майкромайн использует функцию объема, называющуюся радиальной базисной функцией (РБФ), для моделирования содержаний, объемов и поверхностей в трехмерной среде.

ТематикаГеоинформационные системы

МеткиMicromine, Моделирование

Источник:www.micromine.com

СкачатьСмотреть список доступных файлов

Автор(ы):Капутин Ю.Е.

Издание:Недра, Санкт-Петербург, 2013 г., 246 стр., ISBN: 978-5-905153-41-8

Язык(и)Русский

В книге рассмотрен комплекс проблем, связанных с управлением минеральными ресурсами горной компании – главным ее богатством. Основное внимание уделено геологическим аспектам этой деятельности и опыту зарубежных горных компаний. В книге не дано традиционное описание классических основ компьютерного моделирования и оценки ресурсов, а основное внимание сосредоточено на нюансах, повышающих эффективность и достоверность такой работы. Большое место отводится проблемам и методам количественной оценки неопределенности геологической информации, что позволяет значительно повысить ее ценность для горного планирования и оценки финансового риска горных проектов. Подчеркивается важная роль стадии геологического моделирования месторождений, которая часто пропускается при оценке минеральных ресурсов, что приводит к искажениям в оценке рудного тоннажа. Большое внимание уделяется созданию качественных моделей «контроля содержаний», которые помогают существенно снижать уровень разубоживания и потерь. Приводится методика оптимизации плотности разведочной сети, основанная на оценке геологической неопределенности, а также опыт зарубежных компаний по созданию внутренних классификаций минеральных ресурсов. Завершающая глава содержит описание основных методов краткосрочного и стратегического горного планирования (карьеры) с учетом геологического риска.

Книга рассчитана, прежде всего, на практиков, которые уже прошли путь классической компьютерной оценки минеральных ресурсов и столкнулись с проблемойоценки неопределенности используемой информации и очень важными задачами, которые без постижения этой проблемы не решаются. Книга должна также вызвать интерес и, автор надеется, стимул к практическим действиям у работников головных геологических офисов горных компаний (преимущественно крупных), где в основном ведется работа по оценке риска рассматриваемых горных проектов и решаются стратегические задачи по управлению минеральными ресурсами компании.

ТематикаМатематические методы, Полезные ископаемые

Источник:от Автора

СкачатьСмотреть список доступных файлов

Автор(ы):Закиров С.Н., Лапук Б.Б.

Редактор(ы):Коротаев Ю.П.

Издание:Недра, Москва, 1974 г., 376 стр., УДК: 622.324

Язык(и)Русский

Газовая промышленность СССР в настоящее время является важнейшей отраслью народного хозяйства. В различных отраслях промышленности с каждым годом возрастает применение природного газа — наиболее совершенного и дешевого вида топлива. Использование газа повышает эффективность технологических процессов, является важным фактором повышения производительности труда и способствует достижению огромной экономии ресурсов в области материального производства. Природный газ и конденсат являются ценным сырьем для химической промышленности. Незаменимым становится газ и как бытовое топливо. Широкое применение газа в народном хозяйстве оздоровляет воздушный бассейн крупных городов и промышленных центров страны. Таким образом, газовая промышленность не только представляет для государства важную отрасль экономики, но имеети большое социальное значение. На первом этапе своего становления газовая промышленность развивалась одновременно с развитием добычи нефти в направлении использования главным образом попутных газов и в небольших объемах природного газа. В этот период природный газ добывался на небольших по запасам газовых месторождениях Куйбышевской, Оренбургской и Саратовской областей, а также Западной Украины. В 1955 г. запасы природного газа по категориям А + В + Сг составляли менее 500 млрд. м3. Исключительное значение для развития газовой промышленности имели решения XX съезда КПСС, который определил курс на изменение структуры топливного баланса за счет преимущественного развития добычи нефти и газа как наиболее экономичных видов топлива. С середины 50-х годов газовая промышленность вступила во второй этап своего развития, а в 1956 г. была организационно оформлена как самостоятельная отрасль народного хозяйства с единым централизованным управлением. В августе 1958 г. было принято постановление ЦК КПСС и Совета Министров СССР «О дальнейшем развитии газовой промышленности и газоснабжения предприятий и городов СССР». Предпосылками для второго этапа развития газовой промышленности страны явились открытия, сделанные нашими геологами. В этот период вводятся в разработку крупные по запасам газа месторождения Газли (Средняя Авия), Северо-Ставропольское (Ставропольский край), Шебелинское (Украинская ССР), группа газоконденсатных месторождений Краснодарского края. В рассматриваемый период было освоено производство труб диаметром 1020 мм и соответствующих газоперекачивающих агрегатов и механизмов для сооружения магистральных газопроводов. Направляются мощные потоки газа на Урал и в районы Центра страны. На газовых и гаэоконденсатных промыслах внедряются новые техника и технологические процессы. Важное значение придается вопросам подготовки rasa к дальнему транспорту, извлечению конденсата.

ТематикаГорючие полезные ископаемые

СкачатьСмотреть список доступных файлов

Выпуск 572

Автор(ы):Аверко Е.М., Максимов Л.А.

Редактор(ы):Пузырев Н.Н.

Издание:Наука, Новосибирск, 1984 г., 85 стр., УДК: 550.834

Язык(и)Русский

Приведены результаты физического моделирования сейсмических волновых полей для задач сейсморазведки, описан новый способ применения результатов такого моделирования, осно-вапный на трансформации частотного спектра наблюдаемых в моделировании сейсмограмм в область сейсморазведочного диапазона частот. Предложено данные физического моделирования регистрировать обычной сейсморазведочной аппаратурой, а также проводить-их обработку па современных ЭВМ с применением сейсморазведочных программ.

Книга может быть полезна инженерам-сейсмикам (сейсморазведчикам, геоакустикам и т. д.), а также научным работникам в этой области, аспирантам по специальности «геофизические методы разведки полезных ископаемых».

ТематикаСейсморазведка

СкачатьСмотреть список доступных файлов

Автор(ы):Белоусов В.В.

Издание:Недра, Москва, 1985 г., 207 стр., УДК: 551.243

Язык(и)Русский

Рассмотрены морфология, систематика, основные особенности истории и механизма образования различных форм залегания горных пород, способы изучения структур. Обращено внимание на зависимость всех тектонических структур от неоднородности среды, в которой они образуются. Дано полное представление о типах и условиях образования тектонических структур разных рангов, изложена методика их изучения в поле, а также рассмотрена возможность использования моделирования.

Для геологов всех специальностей;  может быть полезна  студентам геологических факультетов вузов и университетов.

ТематикаСтруктурная геология

СкачатьСмотреть список доступных файлов

Урок 6. модели и моделирование — Информатика — 11 класс

Информатика, 11 класс. Урок № 6.

Тема — Модели и моделирование

Цели и задачи урока:

  1. Обобщить представления о понятиях «модель», «моделирование»; познакомиться с формами и структурами представления моделей, основными этапами моделирования.
  2. Узнать роль моделирования в научных и практических исследованиях.
  3. Научиться определять адекватность моделей целям моделирования

На уроке вы научитесь:

  1. Представлять результаты моделирования в виде, удобном для восприятия человеком.
  2. Использовать графическое представление данных (схемы, таблицы, графики) для моделирования.

Из курса школы основной школы вам известно, что:

Модель — это объект, который обладает существенными свойствами другого объекта, процесса или явления и используется вместо него.

Моделирование — это создание и исследование моделей с целью их изучения.

По природе модели делятся на материальные и информационные. Материальные модели обычно представляют собой физическое или предметное представление объекта. Например, архитектор, чтобы представить заказчику здание, сначала строит его уменьшенную копию. Для нас же более интересней рассмотреть именно информационные модели.

Информационные модели — это информация о свойствах оригиналах и его связях с внешним миром.

Среди таких моделей можно выделить вербальные, то есть представленные в виде слов и описаний и знаковые, то есть представленные в виде схем, карт, формул, чертежей.

Еще информационные модели можно различать по фактору времени. Статистические, то есть те, в которых интересующие нас свойства не изменяются со временем, и динамические — это модели, которые описывают движение, развитие.

Сами динамические модели могут быть дискретными и непрерывными. Дискретные модели — это модели, которые описывают поведение оригинала только в отдельные промежутки времени. Непрерывными моделями называются модели, описывающие поведение оригинала для всех промежутков времени.

По характеру связей выделяются детерминированные и стохастические. Детерминированные модели описывают четкую связь между исходными данными и результатом, в стохастических же моделях учитываются случайные события.

При моделировании всегда возникает вопрос: «Можно ли верить полученным результата?» Для этого проверяется свойство модели — АДЕКВАТНОСТЬ.

Адекватность — это совпадение существенных свойств модели и оригинала в рассматриваемой задаче. Доказать адекватность модели можно только в сравнении с оригиналом.

Для этого проверяется:

— не противоречит ли результат моделирования выводам теории,

— подтверждается ли результат моделирования результатами эксперимента.

Таким образом, любое моделирование должно соответствовать следующей схеме.

Такое моделирование позволяет:

  1. Существенно расширить круг исследуемых объектов.
  2. Исследовать процессы и явления, при необходимости ускорять или замедлять процесс.
  3. Находить оптимальное соотношение затрат.
  4. Проводить эксперименты без риска негативных последствий.
  5. Визуализировать полученные результаты.

Между данными, используемыми в той или иной информационной модели, всегда существует некоторые связи, определяющие ту или иную структуру данных.

Граф является многосвязной структурой, обладающей следующими свойствами:

— на каждый элемент может быть произвольное количество ссылок;

— каждый элемент может иметь связь с любым количеством элементов;

— каждая связка может иметь направление и вес.

Направленная (без стрелки) линия, соединяющая вершины графа, называется ребром.

Линия направленная (со стрелкой) называется дугой.

Граф называется неориентированным, если его вершины соединены ребрами.

Граф называется ориентированным, если его вершины соединены дугами.

Граф называется взвешенным, если его вершины или ребра характеризуются некоторой дополнительной информацией — весами вершин или ребер.

Оформляют таблица в соответствии с ГОСТ 2.105-95 «ЕСКД».

Таблицы могут быть следующими типами:

«Объект — свойство», содержащими информацию о свойствах отдельных объектов, принадлежащих одному классу.

«Объект — объект», содержащими информацию о некотором одном свойстве пар объектов, принадлежащих одному или разным классам.

2+2. Экспериментальная логика. Предметное моделирование.: kaktus77 — LiveJournal

 
1. Отсчет-пересчет

Речь пока пойдет о первой задаче: что представляют собой те способы решения арифметических задач, которые применяют дети? Мы имеем здесь типичную ситуацию проведения научного исследования.
С одной стороны, фиксируются различные эмпирические проявления “детского” способа мышления, например, такие:

a) Уже упомянутое расхождение описания решения косвенных задач с нормативно задаваемыми арифметическими требованиями

b) В тех случаях, когда дети решают задачи (т.е. дают правильный ответ), но делают это с трудом, удается выявить какие-то характеристики их способа решения. Так одна группа детей использует для решения задач пальцы или другие доступные предметные совокупности – кубики, палочки и т.п., как, скажем, в этом случае:


Саша Ш., I класс, сентябрь.
Эксп:
На тарелку положили сливы. Девочка съела 6 штук и осталось еще 3. Сколько слив положили на тарелку?
Саша: Трудная, не поймешь.
Эксп: (Повторяет условия.)
Саша: (Отгибает 3 пальца; потом, прикладывая по одному пальцу к носу, отгибает еще 6; посмотрел на них.) Девять.

c) Другая группа предметы не использует, а пересчитывает цифры числового ряда, например:

Владик А., I класс; октябрь
Эксп.:
На полке стояло 7 стаканов. Потом несколько стаканов разбили и осталось 2 стакана. Сколько стаканов разбили?
Владик (Через 38 сек.): Пять.
Эксп.: Как же ты считал?
Владик: 1, 2, 3, 4, 5.
Эксп.: Как же ты узнал, что надо остановиться? Может быть надо считать дальше?
Владик: А дальше будет 6 и 7 — два.

d) Еще одна (немногочисленная) группа тоже движется по числовому ряду, но не считая отдельные цифры, а прибавляя (отнимая) “двойки” или даже “тройки”:

Женя Г., I класс, декабрь.
Эксп.:
У девочки было 5 карандашей, ей дали еще несколько и стало 9. Сколько ей дали?
Женя: Четыре.
Эксп.: Как ты считала?
Женя: Я к 5 прибавила 2 и еще 2.

С другой стороны (согласно нормам научного исследования), требуется построить базовую идеализацию, модель способа решения, разворачивая которую можно было бы вывести все эмпирические характеристики и особенности реальных удачных ( и неудачных) детских решаний.

Предполагается, что в основаниях искомой идеализации (модели) лежит деятельность счета, т.е. та структура деятельности, которая возникает при решение задачи: «Отложи или выдели среди предметов заданной совокупности столько же, сколько их имеется в другой совокупности«.

Собственно, исходной задачей, с логико-генетической точки зрения, является здесь примерно такая: «создать предметную совокупность Y, такую же, как предметная совокупность Х«. Которая в простейших случаях решается, очевидно, вообще без счета и чисел. Но когда невозможно прямое сопоставление предметов из совокупностей X и Y, возникает ситуация «разрыва», которая решается через применение знаков-заместителей. Причем в функции таких знаков поначалу выступают другие предметы, и уже в ходе дальнейшего развития и усложнения этой деятельностной структуры формируется специфические знаковые образования – числа и числовой ряд (пока мы не будем углубляться в этот процесс возникновения и развития числовых и количественных представлений, поскольку этого пока не требуется для анализа «детского» способа, но вернемся к этому позже, немного в другом контексте).

Но и при такой, усложненной структуре процесс решения исходной задачи — «создать предметную совокупность Y, такую же, как предметная совокупность X«, — остается первоначально одной целостной единицей. И лишь потом (в логико-генетическом плане), для решения специальных, частных задач, эта единица мышления разделяется на две процедуры, приобретающие относительно самостоятельное существование – т.е. на процедуры (и задачи) пересчета и отсчета:

Процесс решения задачи пересчета — «сколько предметов (на этом столе, в этой комнате и т.п.)? » — есть замещение в определенном порядке предметов совокупности (или элементарных операций счета) цифрами:

каждого — определенной цифрой, а всей совокупности — определенным числом. Иначе, в схематической форме, этот процесс может быть представлен так:, где Х — совокупность предметов, (А) — цифра ряда, дельта-стрелка«) — операция пересчета, включающая ряд сопоставлений и движений, изображенных на предыдущей схеме.

Процесс решения задачи отсчета — «Возьми или отбери из заданной совокупности столько-то предметов» — тот же счет, но с несколько иной связью между предметами и числом: заданное вначале число определяет выделяемую или создаваемую совокупность предметов:

или , где (А) — цифры ряда, Y — отсчитываемая или восстанавливаемая совокупность, а стрелка-намбла«) – процедура отсчета.

Целостная задача пересчета-отсчета (о которой шла речь выше), будет, очевидно, соединением двух частных:

Так вот, забегая немного вперед, отметим, что дети решают арифметические задачи через комбинирование процедур отсчета и пересчета, т.е. реконструируют по числам из условия задачи предметные совокупности и затем, двигаясь в предметной плоскости, пересчитывают то, что получилось, и приходят таким образом к ответу. Причем, если даже они не используют предметы как таковые, а двигаются в числовом ряде, то все равно это есть модификация предметного способа решения (как будет показано дальше), т.е. – предметный способ решения без предметов !

Понятно, что в прямых задачах такой, предметный, способ решения работает очень хорошо. Скажем, пусть у нас есть задача: «на дереве сидело 4 птички…» — ребенок тотчас же отгибает 4 пальца, «прилетело еще 5» – к 4 отогнутым пальцам присоединяются еще 5. Теперь осталось пересчитать все отогнутые пальцы и получить ответ – 9 птичек.

С косвенными же – не так все просто. Но чтобы разбираться дальше, надо пристальнее взглянуть на «устройство» самой арифметической задачи.

2. Модель задачи.

Для того, чтобы продвинуться дальше в анализе «детского» способа, надо разобраться как именно собирается процесс решения из процедур отсчета и пересчета. Для этого надо обратиться в первую очередь к условиям самих задач. Т.е. предполагается, что детали процесса решения задаются самой задачей.
А значит, нам требуется какое-то абстрактное представление условий задачи, такое представление (т.е. модель задачи), которое можно было бы «объединить» со схемами отсчета и пересчета.

Базовая схема, задающая содержание арифметических задач – схема предметной деятельности по преобразованию совокупностей — их объединение и разделение. Эти преобразования определенным образом структурируют действительность, создавая две предметные ситуации, резко разделенные между собой во времени: пока есть одна ситуация, скажем, до начала преобразования, не может быть другой, когда же возникла вторая ситуация — после преобразования, то уже не может быть первой. К примеру, если мы разделили совокупность Х на две части, то когда было целое, не было частей, когда же есть части, то уже нет целого. То же самое и при объединении двух совокупностей в одну. Наглядно-схематически складывающиеся при этом отношения могут быть изображены так:

Вертикальная штриховая черта во всех этих формулах изображает пространственно-временную границу ситуаций. (Последняя формула соответствует тому случаю, когда, в процессе разделения исходного целого на части, одна из частей исчезает и во вторую ситуацию актуально попадает только одна часть)

Понятно, что в арифметических задачах самих этих предметных совокупностей нет, их условия содержат только описания тех преобразований, которые происходили с предметными совокупностями и числа, которые характеризуют эти совокупности с количественной стороны. В учебной арифметической задаче ничего пересчитывать не нужно, да и нельзя, — все, что нужно для решения, уже пересчитано и предметов как таковых вообще нет.
Здесь, на этом представлении задачи, можно теперь сопоставить «детский» способ решения и собственно арифметический. Последний предполагает:

a) выделение (реконструкцию) из условий задачи преобразования предметных совокупностей;
b) перевод этого преобразования в структурную форму – как соотношения целого и частей;
c) и, в соответствии с известными числовыми значениями целого и/или частей, выбор формальной математической операции – сложения или вычитания.

В «детском» способе тоже, естественно, выделяется (понимается) преобразование предметных совокупностей, но понимается особым образом – через предметное моделирование этих преобразований. Т.е. дети восстанавливают по числам из условий те совокупности, о которых там говорится, и восстанавливают в соответствии с тем, как они выделили преобразования совокупностей.

Причем, если в арифметическом решении в общем-то не важно как реконструирован процесс преобразования (а это, как правило, можно сделать по разному), ибо все равно этот процесс переводится в структурную форму, то для детского способа это момент принципиальный – в зависимости от того, как это сделано, зависит – сможет ребенок восстановить предметный план (и решить задачу) или нет

3. Предметное моделирование.

Вот возьмем какой-нибудь из приведенных уже примеров:


Саша Ш., I класс, сентябрь.
Эксп:
На тарелку положили сливы. Девочка съела 6 штук и осталось еще 3. Сколько слив положили на тарелку?
Саша: Трудная, не поймешь.
Эксп: (Повторяет условия.)
Саша: (Отгибает 3 пальца; потом, прикладывая по одному пальцу к носу, отгибает еще 6; посмотрел на них.) Девять.

В данном случае Саша выделил процесс преобразования совокупностей, не совпадающий с «естественным» (соответствующим сюжету), который заключается в разделении целого на части. Ребенок же интерпретировал задачу через объединение двух частей в неизвестное целое – отложил на пальцах сначала одну часть, потом другую и пересчитал. Но, как правило, дети «ведутся» на «естественный» порядок преобразований (или на тот, который они уже более менее освоили), а в данном случае это предполагает очень сложный путь к решению, поскольку сразу возникает вопрос – как отсчитать несколько слив? И либо дети не могут этого сделать, либо идут через последовательные итерации – ну, пусть было 7 слив, съели-отсчитали 6 – получилось 1. Мало. Ну, пусть было 8 слив … и т.д. Понятно, что такое решение очень трудоемко и чревато ошибками.

Другой пример:


Саша Б., I класс, сентябрь
Эксп.:
В коробке 9 карандашей. 5 карандашей красные, остальные — зеленые. Сколько зеленых карандашей в коробке?
Саша (Шепчет что-то про себя. Через 41 сек. отвечает): 4 карандаша.
Эксп.: Как ты узнал?
Саша: Посчитал.
Эксп.: Как же ты посчитал?
Саша: 6 — 1, 7 — 2, 8 — 3, а 9 — 4.

В этом случае мы видим, что ребенок предпочитает прибавлять (присчитывать), а не отбавлять, и это приводит к громоздкому способу решения. Это пример интересен еще тем, что движение идет в числовом ряду, а, казалось бы, не в предметной плоскости.
Но посмотрим внимательней, что он делает:

От цифры 5 (красные карандаши) начинается отсчет – 6, 7 и т.д. Согласно схеме (да и просто смыслу дела) процедура отсчета подразумевает параллельное движение по числовому ряду и по предметной совокупности – переходя к новой цифре мы «выкладываем» очередной предмет:

Но у нас здесь, вроде, нет предметов. Тем не менее отсчет явно присутствует, особенно бросается в глаза это в следующем протоколе:


Владик А., I класс; октябрь
Эксп.:
На полке стояло 7 стаканов. Потом несколько стаканов разбили и осталось 2 стакана. Сколько стаканов разбили?
Владик (Через 38 сек.): Пять.
Эксп.: Как же ты считал?
Владик: 1, 2, 3, 4, 5.
Эксп.: Как же ты узнал, что надо остановиться? Может быть надо считать дальше?
Владик: А дальше будет 6 и 7 — два.

Что же здесь отсчитывается? – Отсчитываются сами цифры:

Цифры попадают сразу в два функциональных элемента схемы отсчета: с одной стороны, это цифры-знаки, по которым строят совокупность, а с другой – это элементы строящейся совокупности – цифры-предметы. На самом числовом ряде ( в предметной функции) моделируются «вещным» образом преобразования совокупностей из задачи. И отсчитанные таким образом цифры-предметы дальше (дальше – в логическом смысле) пересчитываются (схема относится к протоколу с Сашей):

Если бы отсчитанные предметы были материальны, вещественны, то эти процедуры можно было бы проделать последовательно, но поскольку ребенок вынужден всю эту предметность удерживать в сознании, то приходится ему обе процедуры осуществлять одновременно, «накладывая» их друг на друга (откуда и возникают числовые пары в протоколе).

Понятно, что это достаточно сложная мыслительная деятельность для ребенка, существенно сложнее, чем, скажем, «взрослый» арифметический способ решения. Но тем не менее дети почему-то не переходят к арифметическому способу, даже когда хорошо владеют движением в числовом ряде и прекрасно решают арифметические примеры (т.е. формально складывать и вычитать умеют). И тем не менее они творят свое — строят сложнейшие схемы решений задач (впрочем, понятно, что в экспериментальную школу НИИ ОПП абы кого не берут, в обычных же школах все прозаичней – изощренное творчество на базе отсчета-пересчета встречается гораздо реже, чаще – задачи просто не решаются)

Напрашивается вопрос: как же все-таки перевести их на собственно арифметические рельсы? Этому вопросу будет посвящен следующий пост.

Моделирование — Психологос

Модели́рование — метод исследования объектов на их моделях — аналогах определённого фрагмента природной или социальной реальности; построение и изучение моделей реально существующих предметов, процессов или явлений с целью получения объяснений этих явлений (органических и неорганических систем, инженерных устройств, разнообразных процессов — физических, химических, биологических, социальных) и конструируемых объектов. Моделирование необходимо также для предсказания явлений, интересующих исследователя.

Форма моделирования зависит от используемых моделей и сферы их применения. По характеру моделей выделяют предметное и знаковое (информационное) моделирование. При знаковом моделировании моделями служат схемы, чертежи и т.п. Важнейшим видом такого моделирования является математическое (логико-математическое) моделирование. Возможность моделирования, т.е. переноса результатов, полученных в ходе построения и исследования моделей, на оригинал, основана на том, что модель в определённом смысле отображает (воспроизводит) какие-либо его стороны и предполагает наличие соответствующих теорий или гипотез. Моделирование всегда применяется вместе с другими общенаучными и специальными методами; особенно тесно оно связано с экспериментом. Моделирование в обучении имеет два аспекта: моделирование как содержание, которое учащиеся должны усвоить, и моделирование как учебное действие, средство обучения. С помощью моделирования удаётся свести изучение сложного к простому, невидимого и неощутимого к видимому и ощутимому, незнакомого к знакомому. Система научных моделей, аппарат для их исследования, методика использования в практике результатов исследования входят в основы наук, которые составляют содержание учебного предмета. Моделирование объектов, которые по своей сложности или величине не поддаются исследованию и изготовлению в натуре,- составная часть технического творчества детей. В зависимости от того, какие свойства моделируемого объекта выбраны главными, один и тот же объект может быть представлен моделями различной конструкции. Так, при исследовании физических процессов стремятся к тому, чтобы по результатам опытов на модели можно было судить о явлениях, происходящих в естественных условиях. Наряду с физическим часто используется математическое моделирование. Для изучения сложных самоорганизующихся систем используют кибернетическое моделирование: создаётся функциональная модель, основанная на более простых явлениях, чем изучаемая система. Широко применяется моделирование на компьютерах.

Подробнее

Под моделированием понимается процессы как построения, так и изучения и применения моделей. Оно тесно связано с такими гносеологическими категориями, как абстракция, аналогия, гипотеза и другими: процесс моделирования обязательно включает и построение абстракций, и умозаключения по аналогии, и конструирование научных гипотез. Поэтому естественно задать вопрос: является ли моделирование особым методом научного познания, не является ли оно синонимом процесса теоретического исследования или процесса познавательной деятельности вообще?

Главная особенности моделирования в том, что это метод опосредованного познания с помощью объектов-заместителей — моделей.

Виды моделирования

В силу многозначности понятия «модель» в науке и технике не существует единой классификации видов моделирования: классификацию можно проводить по характеру моделей, по характеру моделируемых объектов, по сферам приложения моделирования (в технике, физических науках, кибернетике и т. д.). Например, можно выделить следующие виды моделирования:

  • Компьютерное моделирование
  • Математическое моделирование
  • Математико-картографическое моделирование
  • Цифровое моделирование
  • Логическое моделирование
  • Психологическое моделирование
  • Статистическое моделирование
  • Структурное моделирование
  • Физическое моделирование
  • Экономико-математическое моделирование
  • Имитационное моделирование
  • Эволюционное моделирование
  • и т. д.

Модели могут быть техническими, логическими, математическими, кибернетическими. Математическая модель представляет собой выражение или формулу, включающую переменные и отношения между ними, воспроизводящие элементы и отношения в изучаемом явлении. Техническое моделирование предполагает создание прибора или устройства, по своему действию напоминающего то, что подлежит изучению. Кибернетическое моделирование основано на использовании в качестве элементов модели понятий из области информатики и кибернетики. Логическое моделирование основано на идеях и символике, применяемой в математической логике.

Процесс моделирования

Процесс моделирования включает три элемента:

  • субъект (исследователь),
  • объект исследования,
  • модель, определяющую (отражающую) отношения познающего субъекта и познаваемого объекта.

Первый этап построения модели предполагает наличие некоторых знаний об объекте-оригинале. Познавательные возможности модели обусловливаются тем, что модель отображает (воспроизводит, имитирует) какие-либо существенные черты объекта-оригинала. Вопрос о необходимой и достаточной мере сходства оригинала и модели требует конкретного анализа. Очевидно, модель утрачивает свой смысл как в случае тождества с оригиналом (тогда она перестает быть моделью), так и в случае чрезмерного во всех существенных отношениях отличия от оригинала. Таким образом, изучение одних сторон моделируемого объекта осуществляется ценой отказа от исследования других сторон. Поэтому любая модель замещает оригинал лишь в строго ограниченном смысле. Из этого следует, что для одного объекта может быть построено несколько «специализированных» моделей, концентрирующих внимание на определенных сторонах исследуемого объекта или же характеризующих объект с разной степенью детализации.

На втором этапе модель выступает как самостоятельный объект исследования. Одной из форм такого исследования является проведение «модельных» экспериментов, при которых сознательно изменяются условия функционирования модели и систематизируются данные о ее «поведении». Конечным результатом этого этапа является множество (совокупность) знаний о модели.

На третьем этапе осуществляется перенос знаний с модели на оригинал — формирование множества знаний. Одновременно происходит переход с «языка» модели на «язык» оригинала. Процесс переноса знаний проводится по определенным правилам. Знания о модели должны быть скорректированы с учетом тех свойств объекта-оригинала, которые не нашли отражения или были изменены при построении модели.

Четвертый этап — практическая проверка получаемых с помощью моделей знаний и их использование для построения обобщающей теории объекта, его преобразования или управления им.

Моделирование — циклический процесс. Это означает, что за первым четырехэтапным циклом может последовать второй, третий и т.д. При этом знания об исследуемом объекте расширяются и уточняются, а исходная модель постепенно совершенствуется. Недостатки, обнаруженные после первого цикла моделирования, обусловленные малым знанием объекта или ошибками в построении модели, можно исправить в последующих циклах.

Сейчас трудно указать область человеческой деятельности, где не применялось бы моделирование. Разработаны, например, модели производства автомобилей, выращивания пшеницы, функционирования отдельных органов человека, жизнедеятельности Азовского моря, последствий атомной войны. В перспективе для каждой системы могут быть созданы свои модели, перед реализацией каждого технического или организационного проекта должно проводиться моделирование.

Литература и ссылки

МОДЕЛИРОВАНИЕ БОЕВЫХ ДЕЙСТВИЙ — информация на портале Энциклопедия Всемирная история

МОДЕЛИРОВАНИЕ БОЕВЫХ ДЕЙСТВИЙ — ме­тод во­енно-тео­ре­тического или во­енно-тех­нического ис­сле­до­ва­ния объ­ек­тов (сис­тем, яв­ле­ний, со­бы­тий, про­цес­сов), уча­ст­вую­щих (про­ис­хо­дя­щих) в хо­де бое­вых дей­ст­вий, пу­тём соз­да­ния и изу­че­ния их мо­де­лей (ана­ло­гов) в це­лях по­лу­че­ния зна­ний о фи­зических, ин­фор­мационных и иных про­цес­сах воо­руженной борь­бы, а так­же для срав­не­ния ва­ри­ан­тов ре­ше­ний ко­ман­дую­щих (ко­ман­ди­ров), пла­нов и про­гно­зов ве­де­ния бое­вых дей­ст­вий, оцен­ки влия­ния на них различных фак­то­ров.

В за­ви­си­мо­сти от це­лей соз­да­ния и пред­на­зна­че­ния мо­де­ли моделирования боевых действий под­раз­де­ля­ют на ис­сле­до­ва­тель­ское, управ­ленческое, штаб­ное (административное), обу­чаю­щее (учеб­ное). По мас­шта­бу моделирование боевых действий бы­ва­ет стра­те­ги­че­ским, опе­ра­тив­ным и так­ти­че­ским. По при­ро­де ис­поль­зуе­мых мо­де­лей и сфе­ре их при­ме­не­ния раз­ли­ча­ют моделирование боевых действий ма­те­ри­аль­ное (пред­мет­ное) и иде­аль­ное.

Ма­те­ри­аль­ное моделирование боевых действий, как пра­ви­ло, при­ме­ня­ет­ся при ис­сле­до­ва­нии та­ких объ­ек­тов, ко­то­рые не­воз­мож­но (ли­бо очень слож­но) опи­сать ма­те­ма­ти­че­ски с дос­та­точ­ной точ­но­стью. Оно, в свою оче­редь, мо­жет быть фи­зи­че­ским, ос­но­ван­ным на по­до­бии (сход­ст­ве) фи­зической при­ро­ды про­то­ти­пов и мо­де­лей (напр., уче­ние как мо­дель для ис­сле­до­ва­ния боя), и ана­ло­го­вым, обес­пе­чи­ваю­щим сход­ст­во в опи­са­нии про­цес­сов, про­те­каю­щих в про­то­ти­пах и мо­де­лях [напр., пе­ре­да­ча элек­трических сиг­на­лов как мо­дель пе­ре­да­чи ин­фор­ма­ции в сис­те­мах управ­ле­ния вой­ска­ми (си­ла­ми) и ору­жи­ем (сред­ст­ва­ми) в хо­де бое­вых дей­ст­вий]. Од­на­ко та­кое мо­де­ли­ро­ва­ние обу­слов­ли­ва­ет зна­чительные ма­те­ри­аль­ные, фи­нан­со­вые и др. за­тра­ты.

Иде­аль­ное Моделирование боевых действий ос­но­вы­ва­ет­ся на мыс­лен­ной идеа­ли­зи­ро­ван­ной ана­ло­гии ре­аль­ных про­то­ти­пов и их мо­де­лей, а по спо­со­бу от­ра­же­ния ре­аль­ных про­то­ти­пов оно де­лит­ся на зна­ко­вое (се­мио­тическое) и ин­туи­тив­ное. Зна­ко­вое мо­де­ли­ро­ва­ние ос­но­вы­ва­ет­ся на се­мио­ти­ке (тео­рии зна­ко­вых сис­тем), и по спо­со­бу пред­став­ле­ния мо­де­лей раз­ли­ча­ют ма­те­ма­тическое (ана­ли­тич.), ал­го­рит­мическое, ло­гическое и гра­фи­ческое моделирование боевых действий.

 Воз­мож­ны так­же разл. со­че­та­ния мо­де­лей, например при ло­ги­ко-ма­те­ма­тическое моделирование боевых действий. Ин­туи­тив­ное моделирование боевых действий ос­но­вы­ва­ет­ся на ис­поль­зо­ва­нии мо­де­лей с не­стро­гим, не все­гда чёт­ким сло­вес­ным (вер­баль­ным) опи­са­ни­ем про­то­ти­пов, с ги­по­те­тическим, эв­ри­стическим ха­рак­те­ром от­ра­же­ния тен­ден­ций раз­ви­тия си­туа­ций, яв­ле­ний, их взаи­мо­влия­ний, и по спо­со­бу фор­ми­ро­ва­ния ги­по­тез, эв­ри­стик раз­ли­ча­ют моделирование боевых действий, ос­но­ван­ное на ме­то­де сце­на­ри­ев, опе­рационной иг­ре и мыс­лен­ном экс­пе­ри­мен­те. Ин­туи­тив­ное моделирование боевых действий при­ме­ня­ет­ся для вы­ра­бот­ки за­мыс­ла и при­ня­тия ре­ше­ния на ве­де­ние бое­вых дей­ст­вий, обу­че­ния долж­но­ст­ных лиц ор­га­нов управ­ле­ния вой­ска­ми (си­ла­ми), про­ве­де­ния во­енно-на­учных ис­сле­до­ва­ний (ве­ри­фи­ка­ции вы­дви­гае­мых на­учных ги­по­тез, пред­ло­же­ний во­енно-тео­ре­тического и во­енно-тех­нического ха­рак­те­ра).

Мно­гие из пе­ре­чис­лен­ных форм моделирования боевых действий в прак­ти­ке во­енно-при­клад­ных ис­сле­до­ва­ний и управ­ленческо дея­тель­но­сти шта­бов ис­поль­зу­ют­ся в ви­де ими­тационных мо­де­лей. Под ими­та­ци­ей здесь по­ни­ма­ет­ся вос­про­из­ве­де­ние изу­чае­мых ре­аль­ных про­цес­сов ве­де­ния бое­вых дей­ст­вий другой сис­те­мой (др. сред­ст­ва­ми, в из­ме­нён­ном мас­шта­бе про­стран­ст­ва и вре­ме­ни), но с со­блю­де­ни­ем ана­ло­гии ме­ж­ду ре­аль­ны­ми и ими­ти­руе­мы­ми про­цес­са­ми от­но­си­тель­но су­ще­ст­вен­ных, с точ­ки зре­ния ис­сле­до­ва­те­ля, свойств этих про­цес­сов. Ими­тационные мо­де­ли реа­ли­зу­ют­ся, как пра­ви­ло, на ЭВМ.

Моделирование боевых действий наи­бо­лее ши­ро­ко при­ме­ня­ет­ся в ин­те­ре­сах обос­но­ва­ния при­ни­мае­мых ре­ше­ний в об­лас­ти управ­ле­ния вой­ска­ми (си­ла­ми) при под­го­тов­ке и ве­де­нии бое­вых дей­ст­вий, строи­тель­ст­ве во­оруженных сил, раз­ра­бот­ке про­грамм раз­ви­тия во­ору­же­ний, а так­же при оцен­ке эф­фек­тив­но­сти ис­поль­зо­ва­ния но­вых об­раз­цов ору­жия, опе­ра­тив­ной под­го­тов­ке шта­бов и др.

 

Text Mining 101: Тематическое моделирование

Goutam Nair, IIIT-Хайдарабад .

Что такое тематическое моделирование? Зачем нам это нужно?

Ежедневно собираются большие объемы данных. Чем больше информации становится доступной, тем труднее становится получить доступ к тому, что мы ищем. Итак, нам нужны инструменты и методы для организации, поиска и понимания огромных объемов информации.

Тематическое моделирование предоставляет нам методы для организации, понимания и обобщения больших коллекций текстовой информации.Помогает в:

  • Обнаружение скрытых актуальных закономерностей, присутствующих в коллекции
  • Аннотирование документов по этим темам
  • Использование этих аннотаций для систематизации, поиска и обобщения текстов

Тематическое моделирование можно описать как метод поиска группы слов (то есть темы) из коллекции документов, которая наилучшим образом представляет информацию в коллекции. Его также можно рассматривать как форму интеллектуального анализа текста — способ получения повторяющихся шаблонов слов в текстовом материале.

Есть много методов, которые используются для получения тематических моделей. Этот пост призван объяснить скрытое распределение Дирихле (LDA): широко используемый метод тематического моделирования и процесс TextRank: алгоритм на основе графов для извлечения соответствующих ключевых фраз.

Скрытое размещение Дирихле (LDA) [1]

В модели LDA каждый документ рассматривается как смесь тем, присутствующих в корпусе. Модель предполагает, что каждое слово в документе относится к одной из тем документа.

Например, в качестве корпуса рассмотрим следующий набор документов:

Документ 1 : У меня на завтрак был бутерброд с арахисовым маслом.
Документ 2 : Я люблю есть миндаль, арахис и грецкие орехи.
Документ 3 : У моего соседа вчера была маленькая собачка.
Документ 4 : Кошки и собаки — смертельные враги.
Документ 5 : нельзя кормить собаку арахисом.

Модель LDA обнаруживает различные темы, которые представляют документы, и то, какая часть каждой темы присутствует в документе.Например, LDA может выдать следующие результаты:

Тема 1 : 30% арахиса, 15% миндаля, 10% завтрака … (вы можете интерпретировать, что эта тема касается еды)
Тема 2 : 20% собак, 10% кошек, 5% арахиса … (вы можете интерпретировать, что эта тема касается домашних животных или животных)

Документы 1 и 2 : 100% Тема 1
Документы 3 и 4 : 100% Тема 2
Документ 5 : 70% Тема 1, 30% Тема 2

Итак, как LDA выполняет этот процесс?

Свернутая выборка Гиббса — это один из способов, которым LDA изучает темы и представления тем каждого документа.Порядок действий следующий:

  • Просмотрите каждый документ и случайным образом назначьте каждое слово в документе одной из K тем (K выбирается заранее)
  • Это случайное назначение дает тематическое представление всех документов и распределение слов по всем темам, хотя и не очень хорошее.
  • Итак, чтобы улучшить их:
    • Для каждого документа d пройдите по каждому слову w и вычислите:
      • p (тема t | документ d): доля слов в документе d , которые присвоены теме t
      • p (слово w | тема t): доля заданий по теме t по всем документам d, которые происходят из слова w
  • Переназначить слово wa новая тема t ‘, где мы выбираем тему t’ с вероятностью
    p (тема t ‘| документ d) * p (слово w | тема t’)
    Эта генеративная модель предсказывает вероятность того, что тема t ‘сгенерировала слово w

При повторении последнего шага большое количество раз мы достигаем устойчивого состояния, при котором тематические задания довольно хороши.Эти назначения затем используются для определения сочетания тем в каждом документе.

TextRank [2]

Алгоритмы ранжирования на основе графов — это способ определения важности вершины в графе на основе информации, полученной из всего графа. Основная идея, реализованная с помощью модели ранжирования на основе графов, — это «голосование».

Когда одна вершина соединяется с другой, она в основном голосует за эту вершину. Чем больше голосов отдано за вершину, тем выше ее важность.Более того, важность вершины, подающей голос, определяет, насколько важен сам голос, и эта информация также принимается во внимание моделью ранжирования. Следовательно, оценка, связанная с вершиной, определяется на основе голосов, поданных за нее, и оценки вершин, подающих эти голоса.

Оценка для каждой вершины Vi рассчитывается как:

Здесь G = (V, E) — ориентированный граф с набором вершин V и набором ребер E .Для данной вершины Vi, , In (Vi), обозначает количество внутренних ребер к этой вершине, а Out (Vi) обозначает количество внешних ребер от этой вершины. d — коэффициент демпфирования, установленный на 0,85, как это делается в PageRank [3]. Теперь, чтобы включить применение этой модели к текстам на естественном языке, мы следуем шагам:

  1. Определите блоки текста, которые лучше всего определяют текущую задачу, и добавьте их в качестве вершин на графе.
  2. Определите отношения, которые соединяют такие текстовые блоки, и используйте эти отношения для рисования ребер между вершинами в графе.Края могут быть направленными или ненаправленными, взвешенными или невзвешенными.
  3. Итерировать алгоритм ранжирования на основе графа до сходимости.
  4. Сортировка вершин по их окончательному баллу. Используйте значения, прикрепленные к каждой вершине, для принятия решений о ранжировании / выборе.

См. Ссылка 4 ниже

Этот метод позволяет нам получить соответствующие ключевые фразы для каждого документа в коллекции. Итак, чтобы получить соответствующие темы из всей коллекции, мы применяем ту же процедуру, где каждая вершина в графе обозначает соответствующие ключевые фразы документа.

Список литературы
  1. Д. Блей, А. Нг, М. Джордан. Скрытое размещение Дирихле. Журнал исследований в области машинного обучения , 3: 993-1022, 2003
  2. Р. Михалча, П. Тарау. TextRank — наведение порядка в текстах. В материалах конференции по эмпирическим методам обработки естественного языка (EMNLP 2004) . 2004
  3. Л. Пейдж, С. Брин, Р. Мотвани, Т. Виноград. Рейтинг цитирования PageRank: наведение порядка в Интернете. Технический отчет , Стэнфордский университет .1998
  4. Г.Эркан, Д. Радев, LexRank: графическая лексическая центральность как значимость в обобщении текста, J. ​​Исследования искусственного интеллекта, т. 22. С. 457-479, 2004.

Оригинал.

Связанные :

6 Тематическое моделирование | Интеллектуальный анализ текста с R

При интеллектуальном анализе текста у нас часто есть коллекции документов, таких как сообщения в блогах или новостные статьи, которые мы хотели бы разделить на естественные группы, чтобы мы могли понимать их по отдельности.Тематическое моделирование — это метод неконтролируемой классификации таких документов, аналогичный кластеризации числовых данных, который находит естественные группы элементов, даже если мы не уверены, что ищем.

Скрытое распределение Дирихле (LDA) — особенно популярный метод подбора тематической модели. Он рассматривает каждый документ как смесь тем, а каждую тему как смесь слов. Это позволяет документам «перекрывать» друг друга по содержанию, а не разделять их на отдельные группы, что отражает типичное использование естественного языка.

Как показано на рис. 6.1, мы можем использовать принципы аккуратного текста для подхода к тематическому моделированию с тем же набором аккуратных инструментов, который мы использовали на протяжении всей этой книги. В этой главе мы научимся работать с объектами LDA из пакета topicmodels, в частности, приводим такие модели в порядок, чтобы ими можно было манипулировать с помощью ggplot2 и dplyr. Мы также рассмотрим пример кластеризации глав из нескольких книг, где мы увидим, что тематическая модель «учится» различать четыре книги на основе текстового содержания.

Скрытое размещение Дирихле

Скрытое распределение Дирихле — один из наиболее распространенных алгоритмов тематического моделирования. Не углубляясь в математику, лежащую в основе модели, мы можем понять, что она руководствуется двумя принципами.

  • Каждый документ представляет собой смесь тем. Мы предполагаем, что каждый документ может содержать слова из нескольких тем в определенных пропорциях. Например, в модели с двумя темами мы могли бы сказать: «Документ 1 — это 90% тема A и 10% тема B, а документ 2 — 30% тема A и 70% тема B.”
  • Каждая тема — это смесь слов. Например, мы могли бы представить модель американских новостей с двумя темами: одна тема — «политика», а другая — «развлечения». Наиболее распространенными словами в политической теме могут быть «президент», «конгресс» и «правительство», в то время как тема развлечений может состоять из таких слов, как «фильмы», «телевидение» и «актер». Важно отметить, что слова могут использоваться в разных темах; такое слово, как «бюджет», может присутствовать в обоих одинаково.

LDA — это математический метод для одновременной оценки обоих из них: поиск смеси слов, связанных с каждой темой, а также определение смеси тем, описывающих каждый документ.Существует ряд существующих реализаций этого алгоритма, и мы подробно рассмотрим одну из них.

В главе 5 мы кратко представили набор данных AssociatedPress , предоставляемый пакетом topicmodels, в качестве примера DocumentTermMatrix. Это сборник из 2246 новостных статей американского информационного агентства, в основном опубликованных примерно в 1988 году.

 Библиотека  (тематические модели)

данные ("AssociatedPress")
AssociatedPress
#> << DocumentTermMatrix (документы: 2246, условия: 10473) >>
#> Не- / разреженные записи: 302031/23220327
#> Редкость: 99%
#> Максимальный срок: 18
#> Взвешивание: частота термина (tf)  

Мы можем использовать функцию LDA () из пакета topicmodels, установив k = 2 , чтобы создать модель LDA с двумя темами.

Практически любая тематическая модель на практике будет использовать более крупный k , но мы скоро увидим, что этот подход к анализу распространяется на большее количество тем.

Эта функция возвращает объект, содержащий полную информацию о соответствии модели, например, как слова связаны с темами и как темы связаны с документами.

  # устанавливаем начальное число, чтобы результат модели был предсказуемым
ap_lda <- LDA (AssociatedPress, k = 2, control = list (seed = 1234))
ap_lda
#> Тематическая модель LDA_VEM с двумя темами. 

Подгонка модели была «легкой частью»: остальная часть анализа будет включать изучение и интерпретацию модели с использованием функций упорядочивания из пакета tidytext.

Вероятности слово-тема

В главе 5 мы представили метод tidy () , первоначально из пакета broom (Robinson 2017), для упорядочивания объектов модели. Пакет tidytext предоставляет этот метод для извлечения вероятностей для каждой темы и слова, называемый \ (\ beta \) («бета»), из модели.

 Библиотека  (tidytext)

ap_topics <- tidy (ap_lda, matrix = "beta")
ap_topics
#> # Стол: 20 946 x 3
#> тематический термин бета
#>   
#> 1 1 аарон 1.69e-12
#> 2 2 аарон 3.90e- 5
#> 3 1 отказаться 2.65e- 5
#> 4 2 отказаться 3.99e- 5
#> 5 1 заброшенный 1.39e- 4
#> 6 2 заброшенный 5.88e- 5
#> 7 1 отказ от 2.45e-33
#> 8 2 отказ от 2.34e- 5
#> 9 1 абботт 2.{-5} \) вероятность быть сгенерированной из темы 2. 

Мы могли бы использовать dplyr slice_max () , чтобы найти 10 терминов, наиболее часто встречающихся в каждой теме. Как аккуратный фрейм данных, он хорошо подходит для визуализации ggplot2 (рис. 6.2).

Рисунок 6.2: Термины, наиболее часто встречающиеся в каждой теме

Эта визуализация позволяет нам понять две темы, которые были извлечены из статей. Наиболее распространенные слова в теме 1 включают «процент», «миллион», «миллиард» и «компания», что предполагает, что он может представлять деловые или финансовые новости.Наиболее распространенными в теме 2 являются «президент», «правительство» и «совет», предполагая, что эта тема представляет политические новости. Одно важное наблюдение по поводу слов в каждой теме заключается в том, что некоторые слова, такие как «новые» и «люди», являются общими в обеих темах. Это преимущество тематического моделирования по сравнению с методами «жесткой кластеризации»: темы, используемые на естественном языке, могут частично совпадать с точки зрения слов.

В качестве альтернативы мы могли бы рассмотреть термины, которые имеют наибольшую разницу в \ (\ beta \) между темой 1 и темой 2.Это можно оценить на основе логарифмического отношения двух: \ (\ log_2 (\ frac {\ beta_2} {\ beta_1}) \) (логарифмическое соотношение полезно, потому что оно делает разницу симметричной: \ (\ beta_2 \) вдвое больше приводит к логарифмическому коэффициенту, равному 1, а увеличение \ (\ beta_1 \) в два раза дает -1). Чтобы ограничить его набором особенно релевантных слов, мы можем отфильтровать относительно общие слова, например те, у которых \ (\ beta \) больше 1/1000 хотя бы в одной теме.

  библиотека (тидыр)

beta_wide <- ap_topics%>%
  mutate (topic = paste0 ("тема", topic))%>%
  pivot_wider (names_from = topic, values_from = beta)%>%
  фильтр (тема1>.001 | тема2> .001)%>%
  изменить (log_ratio = log2 (topic2 / topic1))

beta_wide
#> # Стол: 198 x 4
#> термин topic1 topic2 log_ratio
#>    
#> 1 администрация 0,000431 0,00138 1,68
#> 2 назад 0,00107 0,000842 -0,339
#> 3 соглашение 0,000671 0,00104 0,630
#> 4 помощь 0,0000476 0,00105 4,46
#> 5 воздух 0,00214 0.000297 -2,85
#> 6 американец 0,00203 0,00168 -0,270
#> 7 аналитиков 0,00109 0,000000578 -10,9
#> 8 область 0,00137 0,000231 -2,57
#> 9 армия 0,000262 0,00105 2,00
#> 10 задано 0,000189 0,00156 3,05
#> #… С дополнительными 188 строками  

Слова с наибольшими различиями между двумя темами визуализированы на Рисунке 6.3.

Рисунок 6.3: Слова с наибольшей разницей в \ (\ beta \) между темой 2 и темой 1

Мы видим, что слова, более часто встречающиеся в теме 2, включают такие политические партии, как «демократические» и «республиканские», а также имена политиков, такие как «дукакис» и «горбачев».Тема 1 больше характеризовалась такими валютами, как «иена» и «доллар», а также финансовыми терминами, такими как «индекс», «цены» и «ставки». Это помогает подтвердить, что две темы, выявленные алгоритмом, были политическими и финансовыми новостями.

Вероятности темы документа

Помимо оценки каждой темы как смеси слов, LDA также моделирует каждый документ как смесь тем. Мы можем исследовать вероятности для каждого документа и темы, называемые \ (\ gamma \) («гамма»), с аргументом matrix = «gamma» для tidy () .

  ap_documents <- tidy (ap_lda, matrix = "gamma")
ap_documents
#> # Стол: 4 492 x 3
#> гамма темы документа
#>   
#> 1 1 1 0,248
#> 2 2 1 0,362
#> 3 3 1 0,527
#> 4 4 1 0,357
#> 5 5 1 0,181
#> 6 6 1 0,000588
#> 7 7 1 0,773
#> 8 8 1 0,00445
#> 9 9 1 0,967
#> 10 10 1 0.147
#> #… С еще 4 482 строками  

Каждое из этих значений представляет собой приблизительную долю слов из этого документа, созданных из этой темы. Например, модель оценивает, что только около 25% слов в документе 1 были созданы из темы 1.

Мы видим, что многие из этих документов были взяты из смеси двух тем, но этот документ 6 был почти полностью взят из темы 2, имея \ (\ gamma \) из темы 1, близкий к нулю. Чтобы проверить этот ответ, мы могли бы tidy () матрицу терминов документа (см. Главу 5.1) и проверьте, какие слова в этом документе использовались чаще всего.

  приборка (AssociatedPress)%>%
  фильтр (документ == 6)%>%
  аранжировать (desc (count))
#> # Стол: 287 x 3
#> количество терминов в документе
#>   
#> 1 6 норьега 16
#> 2 6 панама 12
#> 3 6 джексон 6
#> 4 6 Пауэлл 6
#> 5 6 администрация 5
#> 6 6 экономический 5
#> 7 6 общие 5
#> 8 6 i 5
#> 9 6 панамский 5
#> 10 6 американцы 4
#> #… С еще 277 строками  

Судя по наиболее распространенным словам, это, по-видимому, статья об отношениях между американским правительством и панамским диктатором Мануэлем Норьегой, что означает, что алгоритм был правильным, поместив ее в тему 2 (как политические / национальные новости).

Пример: великое ограбление библиотеки

При изучении статистического метода может быть полезно попробовать его в очень простом случае, когда вы знаете «правильный ответ». Например, мы могли бы собрать набор документов, которые определенно относятся к четырем отдельным темам, а затем выполнить моделирование тем, чтобы увидеть, может ли алгоритм правильно различать четыре группы. Это позволяет нам дважды проверить, полезен ли метод, и понять, как и когда он может пойти не так. Мы попробуем это сделать с некоторыми данными из классической литературы.

Предположим, что вандал ворвался в ваш кабинет и разорвал на части четыре ваши книги:

  • Большие надежды Чарльз Диккенс
  • Война миров Герберта Уэллса
  • Двадцать тысяч лье под водой Жюль Верн
  • Гордость и предубеждение Джейн Остин

Этот вандал разорвал книги на отдельные главы и оставил их в одной большой стопке. Как мы можем восстановить эти неорганизованные главы в их оригинальных книгах? Это сложная проблема, поскольку отдельные главы не имеют ярлыка : мы не знаем, какие слова могут разделять их на группы.Таким образом, мы воспользуемся тематическим моделированием, чтобы выяснить, как главы группируются в отдельные темы, каждая из которых (предположительно) представляет одну из книг.

Мы найдем текст этих четырех книг с помощью пакета gutenbergr, представленного в главе 3.

  названия <- c («Двадцать тысяч лье под водой»,
            «Война миров»,
            "Гордость и предубеждение",
            «Большие надежды»)  

В качестве предварительной обработки мы делим их на главы, используем функцию tidytext unnest_tokens () , чтобы разделить их на слова, затем удаляем стоп-слова .chapter ", ignore_case = TRUE) )))%>% разгруппировать ()%>% фильтр (раздел> 0)%>% объединить (документ, заголовок, глава) # разбить на слова by_chapter_word <- by_chapter%>% unnest_tokens (слово, текст) # найти документ - количество слов word_counts <- by_chapter_word%>% anti_join (стоп-слова)%>% count (документ, слово, сортировка = ИСТИНА)%>% разгруппировать () word_counts #> # Таблица: 104 721 x 3 #> документ слово n #> #> 1 Great Expectations_57 Джо 88 #> 2 Great Expectations_7 Джо 70 #> 3 Большие надежды_17 бидди 63 #> 4 Great Expectations_27 Джо 58 #> 5 Great Expectations_38 estella 58 #> 6 Great Expectations_2 Джо 56 #> 7 Great Expectations_23 pocket 53 #> 8 Great Expectations_15 Джо 50 #> 9 Great Expectations_18 Джо 50 #> 10 Война миров_16 брат 50 #> #… С еще 104 711 строками

LDA по главам

Прямо сейчас наш фрейм данных word_counts находится в аккуратной форме, с одним термином-на-документ-на строку, но для пакета topicmodels требуется DocumentTermMatrix .Как описано в главе 5.2, мы можем преобразовать таблицу с одним токеном на строку в DocumentTermMatrix с помощью tidytext cast_dtm () .

  chapters_dtm <- word_counts%>%
  cast_dtm (документ, слово, число)

chapters_dtm
#> << DocumentTermMatrix (документов: 193, терминов: 18215) >>
#> Нестандартные / редкие записи: 104721/3410774
#> Редкость: 97%
#> Максимальный срок: 19
#> Взвешивание: частота термина (tf)  

Затем мы можем использовать функцию LDA () для создания модели с четырьмя темами.В этом случае мы знаем, что ищем четыре темы, потому что есть четыре книги; в других задачах нам может потребоваться попробовать несколько различных значений k .

  chapters_lda <- LDA (chapters_dtm, k = 4, control = list (seed = 1234))
chapters_lda
#> Тематическая модель LDA_VEM с 4 темами.  

Как и в случае с данными Associated Press, мы можем исследовать вероятности для каждой темы и слова.

  chapter_topics <- tidy (chapters_lda, matrix = "beta")
chapter_topics
#> # Таблица: 72,860 x 3
#> тематический термин бета
#>   
#> 1 1 джо 5.83e-17
#> 2 2 джо 3.19e-57
#> 3 3 джо 4.16e-24
#> 4 4 Джо 1.45e- 2
#> 5 1 бидди 7.85e-27
#> 6 2 бидди 4.67e-69
#> 7 3 бидди 2.26e-46
#> 8 4 бидди 4.77e- 3
#> 9 1 эстелла 3.83e- 6
#> 10 2 эстелла 5.32e-65
#> #… С еще 72 850 строками  

Обратите внимание, что это превратило модель в формат «одна тема на термин на строку». Для каждой комбинации модель вычисляет вероятность того, что термин был создан из этой темы.Например, термин «Джо» имеет почти нулевую вероятность быть полученным из тем 1, 2 или 3, но составляет 1% от темы 4.

Мы могли бы использовать dplyr slice_max () , чтобы найти 5 самых популярных терминов в каждой теме.

  top_terms <- chapter_topics%>%
  group_by (тема)%>%
  slice_max (бета, n = 5)%>%
  разгруппировать ()%>%
  аранжировать (тема, -beta)

top_terms
#> # Стол: 20 x 3
#> тематический термин бета
#>   
#> 1 1 Элизабет 0.0141
#> 2 1 дарси 0,00881
#> 3 1 промах 0.00871
#> 4 1 Беннет 0,00695
#> 5 1 джейн 0.00650
#> 6 2 капитан 0,0155
#> 7 2 наутилус 0,0131
#> 8 2 море 0,00885
#> 9 2 nemo 0.00871
#> 10 2 нед 0.00803
#> 11 3 человека 0,00680
#> 12 3 марсиан 0,00651
#> 13 3 раза 0,00535
#> 14 3 черный 0,00528
#> 15 3 ночи 0.00448
#> 16 4 Джо 0,0145
#> 17 4 раз 0.00685
#> 18 4 пункт. 0,00682
#> 19 4 посмотрел 0.00637
#> 20 4 промах 0.00623  

Этот аккуратный вывод хорошо подходит для визуализации ggplot2 (рис. 6.4).

Рисунок 6.4: Термины, наиболее часто встречающиеся в каждой теме

Эти темы довольно четко связаны с четырьмя книгами! Нет никаких сомнений в том, что тема «капитан», «наутилус», «море» и «немо» принадлежит к «Двадцать тысяч лье под водой» , а «джейн», «дарси» и «элизабет» принадлежат Гордость и предубеждение .Мы видим «пип» и «джо» из Великие надежды и «марсиане», «черный» и «ночь» из Война миров . Мы также замечаем, что в соответствии с тем, что LDA является методом «нечеткой кластеризации», могут быть общие слова для нескольких тем, такие как «пропустить» в темах 1 и 4 и «время» в темах 3 и 4.

Классификация документов

Каждый документ в этом анализе представляет собой отдельную главу. Таким образом, мы можем захотеть узнать, какие темы связаны с каждым документом.Можем ли мы снова собрать главы в нужные книги? Мы можем найти это, исследуя вероятности для каждого документа и темы, \ (\ gamma \) («гамма»).

  chapters_gamma <- tidy (chapters_lda, matrix = "gamma")
chapters_gamma
#> # Стол: 772 x 3
#> гамма темы документа
#>   
#> 1 Большие надежды_57 1 0,0000135
#> 2 Большие надежды_7 1 0,0000147
#> 3 Большие надежды_17 1 0.0000212
#> 4 Great Expectations_27 1 0,0000192
#> 5 Great Expectations_38 1 0,354
#> 6 Большие надежды_2 1 0,0000172
#> 7 больших ожиданий_23 1 0,551
#> 8 Большие надежды_15 1 0,0168
#> 9 больших надежд_18 1 0,0000127
#> 10 Война миров_16 1 0.0000108
#> #… С еще 762 строками  

Каждое из этих значений представляет собой приблизительную долю слов из этого документа, созданных из этой темы.Например, модель оценивает, что каждое слово в документе Great Expectations_57 только с 0% вероятностью происходит из темы 1 (Гордость и предубеждение).

Теперь, когда у нас есть эти вероятности тем, мы можем видеть, насколько хорошо наше обучение без учителя помогло различить четыре книги. Мы ожидаем, что главы в книге будут в основном (или полностью) созданы по соответствующей теме.

Сначала мы повторно разделяем имя документа на заголовок и главу, после чего мы можем визуализировать вероятность для каждого документа и темы (рисунок 6.5).

  chapters_gamma <- chapters_gamma%>%
  отдельный (документ, c ("название", "глава"), sep = "_", convert = TRUE)

chapters_gamma
#> # Стол: 772 x 4
#> гамма темы заголовка главы
#>    
#> 1 Большие надежды 57 1 0,0000135
#> 2 Большие надежды 7 1 0,0000147
#> 3 Большие надежды 17 1 0,0000212
#> 4 Большие надежды 27 1 0.0000192
#> 5 больших надежд 38 1 0,354
#> 6 Большие надежды 2 1 0,0000172
#> 7 больших надежд 23 1 0,551
#> 8 Большие надежды 15 1 0,0168
#> 9 Большие надежды 18 1 0,0000127
#> 10 Война миров 16 1 0,0000108
#> #… С еще 762 строками  

Рисунок 6.5: Вероятности гаммы для каждой главы в каждой книге

Мы замечаем, что почти все главы из Гордость и предубеждение , Война миров и Двадцать тысяч лье под водой были однозначно определены как одна тема.

Похоже, что некоторые главы из книги «Большие надежды» (которая должна быть темой 4) были в некоторой степени связаны с другими темами. Были ли случаи, когда тема, наиболее связанная с главой, принадлежала другой книге? Сначала мы нашли тему, которая больше всего ассоциировалась с каждой главой, с помощью slice_max () , который фактически является «классификацией» этой главы.

  chapter_classifications <- chapters_gamma%>%
  group_by (заголовок, глава)%>%
  slice_max (гамма)%>%
  разгруппировать ()

chapter_classifications
#> # Стол: 193 x 4
#> гамма темы заголовка главы
#>    
#> 1 Большие надежды 1 4 0.821
#> 2 Большие надежды 2 4 1.00
#> 3 Большие надежды 3 4 0,687
#> 4 Большие надежды 4 4 1.00
#> 5 Большие надежды 5 4 0,782
#> 6 Большие надежды 6 4 1.00
#> 7 Большие надежды 7 4 1.00
#> 8 Большие надежды 8 4 0,686
#> 9 Большие надежды 9 4 0,992
#> 10 Большие надежды 10 4 1.00
#> #… С дополнительными 183 строками  

Затем мы можем сравнить каждую тему с «согласованной» темой для каждой книги (наиболее распространенной темой среди ее глав) и посмотреть, какие из них чаще всего ошибочно определялись.

  book_topics <- chapter_classifications%>%
  количество (заголовок, тема)%>%
  group_by (заголовок)%>%
  slice_max (n, n = 1)%>%
  разгруппировать ()%>%
  трансмутация (консенсус = название, тема)

chapter_classifications%>%
  inner_join (book_topics, by = "topic")%>%
  фильтр (заголовок! = консенсус)
#> # Стол: 2 x 5
#> название главы тема гамма консенсус
#>     
#> 1 Большие надежды 23 1 0.551 Гордость и предубеждение
#> 2 Большие надежды 54 3 0.480 Война миров  

Мы видим, что только две главы из Великие надежды были неправильно классифицированы, поскольку LDA описало, что одна относится к теме «Гордость и предубеждение» (тема 1), а другая - к теме «Война миров» (тема 3). Это неплохо для неконтролируемой кластеризации!

По словам присваивания:

прибавить

Один шаг алгоритма LDA - это присвоение каждому слову в каждом документе темы.Чем больше слов в документе присвоено этой теме, тем больший вес (, гамма ) будет иметь эта классификация документов по темам.

Мы можем захотеть взять исходные пары документ-слово и найти, какие слова в каждом документе были отнесены к той или иной теме. Это задача функции augment () , которая также возникла в пакете broom как способ упорядочения вывода модели. В то время как tidy () извлекает статистические компоненты модели, augment () использует модель для добавления информации к каждому наблюдению в исходных данных.

  задания <- увеличение (chapters_lda, data = chapters_dtm)
задания
#> # Таблица: 104 721 x 4
#> количество терминов в документе. тема
#>    
#> 1 Great Expectations_57 Джо 88 4
#> 2 Great Expectations_7 Джо 70 4
#> 3 Great Expectations_17 Джо 5 4
#> 4 Great Expectations_27 Джо 58 4
#> 5 Great Expectations_2 Джо 56 4
#> 6 Great Expectations_23 Джо 1 4
#> 7 Great Expectations_15 Джо 50 4
#> 8 Great Expectations_18 Джо 50 4
#> 9 Great Expectations_9 Джо 44 4
#> 10 Great Expectations_13 Джо 40 4
#> #… С еще 104 711 строками  

Это возвращает аккуратный фрейм данных о подсчете балансовой стоимости, но добавляет дополнительный столбец: .тема , с темой, которой был присвоен каждый термин в каждом документе. (Дополнительные столбцы, добавленные дополнением , всегда начинаются с . , чтобы предотвратить перезапись существующих столбцов). Мы можем объединить эту таблицу назначений с согласованными названиями книг, чтобы найти, какие слова были неправильно классифицированы.

  назначений <- назначений%>%
  отдельный (документ, c ("название", "глава"),
           sep = "_", convert = TRUE)%>%
  inner_join (book_topics, автор = c (".topic "=" тема "))

задания
#> # Таблица: 104 721 x 6
#> количество терминов в названии главы. тематический консенсус
#>      
#> 1 большие надежды 57 джо 88 4 большие надежды
#> 2 большие надежды 7 джо 70 4 большие надежды
#> 3 большие надежды 17 джо 5 4 большие надежды
#> 4 большие надежды 27 джо 58 4 большие надежды
#> 5 великих ожиданий 2 джо 56 4 большие надежды
#> 6 большие надежды 23 джо 1 4 большие надежды
#> 7 великих ожиданий 15 джо 50 4 большие надежды
#> 8 большие надежды 18 джо 50 4 большие надежды
#> 9 большие надежды 9 джо 44 4 большие надежды
#> 10 больших ожиданий 13 джо 40 4 больших надежды
#> #… С еще 104 711 строками  

Эта комбинация настоящей книги ( название ) и присвоенной ей книги ( консенсус ) полезна для дальнейшего исследования.Мы можем, например, визуализировать матрицу путаницы , показывающую, как часто слова из одной книги были присвоены другой, используя dplyr count () и ggplot2 geom_tile (рис. 6.6.

)
 Библиотека  (весы)

назначения%>%
  count (название, консенсус, вес = количество)%>%
  mutate (через (c (заголовок, консенсус), ~ str_wrap (., 20)))%>%
  group_by (заголовок)%>%
  изменить (процент = n / сумма (n))%>%
  ggplot (aes (консенсус, заголовок, заполнение = процент)) +
  geom_tile () +
  scale_fill_gradient2 (high = "darkred", label = percent_format ()) +
  theme_minimal () +
  тема (ось.text.x = element_text (angle = 90, hjust = 1),
        panel.grid = element_blank ()) +
  labs (x = "Книжные слова были назначены",
       y = "Книжные слова взяты из",
       fill = "% назначений")  

Рисунок 6.6: Матрица путаницы, показывающая, где LDA назначило слова из каждой книги. Каждая строка этой таблицы представляет собой настоящую книгу, из которой взято каждое слово, а каждый столбец представляет, к какой книге оно было отнесено.

Мы замечаем, что почти все слова для Гордость и предубеждение , Двадцать тысяч лиг под морем и Война миров были правильно назначены, в то время как Великие надежды содержали изрядное количество неверно присвоенных слов (которые, как мы видели выше, это привело к неправильной классификации двух глав).

Какие слова чаще всего ошибались?

  неправильное_слово <- присвоения%>%
  фильтр (заголовок! = консенсус)

неправильные_слова
#> # Стол: 4535 x 6
#> количество терминов в названии главы. тематический консенсус
#>      
#> 1 Большие надежды 38 брат 2 1 Гордость и предубеждение
#> 2 большие надежды 22 брат 4 1 гордость и предубеждение
#> 3 большие надежды 23 промах 2 1 гордость и предубеждение
#> 4 большие надежды 22 промах 23 1 гордость и предубеждение
#> 5 Лига Двадцать тысяч… 8 промахов 1 1 Гордость и предубеждение
#> 6 Большие надежды 31 промах 1 1 Гордость и предубеждение
#> 7 больших надежд 5 сергея… 37 1 гордость и предубеждение
#> 8 Большие надежды 46 капитан 1 2 Двадцать тысяч лиг…
#> 9 больших надежд 32 капитан 1 2 Двадцать тысяч лиг…
#> 10 Война миров 17 капитан 5 2 Двадцать тысяч лиг…
#> #… С еще 4525 строками

неправильные_слова%>%
  count (название, консенсус, термин, wt = количество)%>%
  разгруппировать ()%>%
  аранжировать (desc (n))
#> # Стол: 3500 x 4
#> название согласованного термина n
#>    
#> 1 Большие надежды, гордость и предубеждения, любовь 44
#> 2 Большие надежды, гордость и предубеждение, сержант 37
#> 3 Большие надежды, гордость и предубеждение, леди 32
#> 4 Большие надежды, гордость и предубеждение, пропуск 26
#> 5 Большие надежды Лодка Войны миров 25
#> 6 Большие надежды, гордость и предубеждение, отец 19
#> 7 Большие надежды Война миров за воду 19
#> 8 Гордость и предубеждение, большие надежды, младенец 18
#> 9 Гордость и предубеждение, большие надежды, flopson 18
#> 10 Гордость и предубеждение, большие надежды, семья 16
#> #… С еще 3 490 строками  

Мы видим, что ряд слов часто относился к кластеру «Гордость и предубеждение» или «Война миров», даже когда они появлялись в «Великих ожиданиях».Для некоторых из этих слов, таких как «любовь» и «леди», это потому, что они чаще встречаются в «Гордости и предубеждении» (мы можем подтвердить это, проверив счет).

С другой стороны, есть несколько ошибочно классифицированных слов, которые никогда не появлялись в романе, и им были присвоены неверные значения. Например, мы можем подтвердить, что «flopson» появляется только в Great Expectations , даже если он отнесен к кластеру «Pride and Prejudice».

  word_counts%>%
  фильтр (слово == "флопсон")
#> # Стол: 3 x 3
#> документ слово n
#>   
#> 1 Большие надежды_22 флопсон 10
#> 2 Большие надежды_23 flopson 7
#> 3 Great Expectations_33 flopson 1  

Алгоритм LDA является стохастическим, и он может случайно попасть в тему, охватывающую несколько книг.

Альтернативные реализации LDA

Функция LDA () в пакете topicmodels - это только одна реализация скрытого алгоритма распределения Дирихле. Например, пакет mallet (Mimno 2013) реализует оболочку вокруг пакета Java MALLET для инструментов классификации текста, а пакет tidytext также предоставляет tidiers для выходных данных этой модели.

Пакет с молотком использует несколько иной подход к входному формату. Например, он берет не токенизированные документы и сам выполняет токенизацию, а также требует отдельного файла стоп-слов.Это означает, что мы должны свернуть текст в одну строку для каждого документа перед выполнением LDA.

 Библиотека  (молоток)

# создаем вектор с одной строкой на главу
свернуто <- by_chapter_word%>%
  anti_join (stop_words, by = "word")%>%
  mutate (word = str_replace (word, "'", ""))%>%
  group_by (документ)%>%
  суммировать (текст = вставить (слово, collapse = ""))

# создаем пустой файл "игнорируемых слов"
file.create (пустой_файл <- временный файл ())
docs <- mallet.import (свернутый документ $, свернутый текст $, пустой_файл)

mallet_model <- MalletLDA (число.themes = 4)
mallet_model $ loadDocuments (документы)
mallet_model $ train (100)  

Однако после создания модели мы можем использовать функции tidy (), и augment () , описанные в остальной части главы, почти идентичным образом. Это включает в себя извлечение вероятностей слов в каждой теме или темах в каждом документе.

  # пары слово-тема
аккуратный (mallet_model)

# пара документ-тема
tidy (mallet_model, matrix = "гамма")

# столбец должен называться "термин" вместо "расширение"
term_counts <- переименовать (word_counts, term = word)
увеличение (mallet_model, term_counts)  

Мы могли бы использовать ggplot2 для исследования и визуализации модели так же, как мы делали вывод LDA.

Обзор тематического моделирования и его текущих приложений в биоинформатике | SpringerPlus

Прежде всего, тематическое моделирование направлено на обнаружение и аннотирование больших наборов данных со скрытой «тематической» информацией: каждый образец данных представляет собой смесь «тем», где «тема» состоит из набора «слов», которые часто встречаются вместе по образцам. Эта сущность тематического моделирования полностью соответствует интересам биологов, которые включают обнаружение скрытых закономерностей в массивных биологических данных.Таким образом, в последние годы были проведены обширные исследования в области тематического моделирования биологических данных. В этом разделе мы обсуждаем существующие исследования тематических моделей, применяемых в биоинформатике. Сначала описывается процесс отбора статей.

Выбор товаров

Процесс выбора состоит из четырех этапов. Например, сначала мы ищем потенциально релевантные статьи, опубликованные с 1999 по 2016 год в PubMed и Web of Science. В PubMed строка поиска (биоинформатика [термины MeSH] ИЛИ вычислительная биология [термины MeSH]) И («тематическая модель» ИЛИ «тематическое моделирование»).В Web of Science поисковой строкой является тема: [тематическая модель ИЛИ тематическое моделирование) И тема: ((биология ИЛИ медицина) ИЛИ биомедицина]. Во-вторых, для получения более подробной информации извлекаются соответствующие статьи (судя по названию и аннотации). Оценка.В-третьих, мы ищем дополнительные ссылки в библиографиях соответствующих статей.Наконец, все найденные статьи проверяются с помощью следующих критериев включения: 1) оригинальные исследования, опубликованные на английском языке; 2) обработка биологических данных; и 3) использование LSI, PLSA, LDA или других вариантов модели LDA.При этом мы исключаем статьи, соответствующие следующему критерию: использование тематической модели для чисто текстовых данных. Эта стратегия поиска выявила 30 публикаций.

Чтобы провести комплексный анализ этих 30 статей, мы изучаем их на основе трех тем: задачи тематической модели, тип тематической модели и аналогия между документом-темой-словом и биологическим объектом. Эти три темы также составляют основу для глубокого понимания использования тематических моделей в биоинформатике и обсуждаются далее.

Задачи в тематической модели для биоинформатики

Прежде всего, мы уделяем особое внимание ролям и задачам тематической модели в биоинформатике. Изучив соответствующие исследования, мы обнаружили, что задачи тематической модели для биологических данных в основном сосредоточены на трех концепциях: кластерный анализ биологических данных, классификация биологических данных и извлечение признаков биологических данных. Чтобы проиллюстрировать взаимосвязь между этими тремя задачами, диаграмма показана на рис. 5 (Задачи тематической модели в биоинформатике).Треугольники, круги и прямоугольники разного цвета представляют биологические образцы, обработанные тематической моделью. Их цветовые различия указывают на то, что эти биологические образцы имеют высокую вероятность для разных тем. Другими словами, их можно сгруппировать или классифицировать по разным темам. Эти три концепции будут обсуждаться индивидуально в следующих разделах.

Рис. 5

Задачи тематической модели в биоинформатике

Использование в кластерном анализе биологических данных

Как обсуждалось в разделе «Тематическое моделирование», процесс обучения модели LDA полностью не контролируется; следовательно, его область исследований в настоящее время сосредоточена на немаркированных данных.Основная функция тематической модели - это кластеризация документов в текстовом домене: каждый документ представлен распределением вероятностей темы, и документы, имеющие высокую вероятность для одной и той же темы, могут считаться кластером. Следовательно, в отличие от традиционной кластеризации, тематическая модель позволяет получать данные из смеси кластеров, а не из одного кластера. Естественно, кластеризация данных также является основной функцией тематического моделирования биологических данных, но «тема» имеет особое биологическое значение.

Как показано на рис. 5, несколько биологических «тем» были извлечены из совокупности биологических данных путем кластеризации тематической модели, и их также можно рассматривать как биологические «кластеры». Важно отметить, что кластерный анализ предназначен для немаркированных данных. Следовательно, кластеризация тематической модели может только обнаруживать темы, но не возвращает автоматически соответствующие биологические метки. В этом разделе несколько примеров связанных статей проиллюстрируют этот вид исследований, которые преобладают при использовании тематического моделирования биологических данных.Эти исследования разделены на группы в зависимости от типа биологических данных и отображаются в хронологическом порядке.

Во-первых, было проведено множество исследований по тематическому моделированию данных экспрессионных микрочипов. В этих исследованиях генная выборка в этом наборе данных сравнивалась со словесным документом, и каждая выборка моделировалась как смесь скрытых тем. Rogers et al. (2005) и Masada et al. (2009) использовали разложение скрытого процесса (LPD) для обнаружения групповой структуры в образцах и генах.Поскольку описание данных микрочипа выражений представляет собой матрицу действительных чисел вместо неотрицательной целочисленной матрицы, LPD ввел в LDA гауссовские распределения вместо полиномиальных распределений слов. После этого модель PLSA была использована Bicego et al. (2010a) для экстракции бикластеров; эта модель одновременно группирует гены и образцы.

Для получения данных о взаимодействии белков Sinkkonen et al. (2008) предложили бесконечную тематическую модель для поиска функциональных генных модулей (тем) в сочетании с данными об экспрессии генов.В процессе поиска темы эта модель темы фокусируется на отношениях между документами; следовательно, он также подходит для кластеризации других реляционных данных.

Чтобы запросить эксперименты, относящиеся к конкретным биологическим вопросам, Caldas et al. (2009) применили LDA к экспериментальным геномным данным. Запрос соответствует одному микрочипу, а результат поиска - это набор наиболее похожих микрочипов. В BoW этой работы один тип слова соответствовал одному набору генов; следовательно, количество дифференциально экспрессируемых генов в наборах генов считалось эквивалентным количеству слов.Другими словами, запрос был закодирован как вектор, содержащий количество дифференциально экспрессируемых генов. Затем каждый эксперимент соответствовал документу, который содержал смесь компонентов (тем), и каждый компонент (тема) соответствовал распределению по наборам генов. Наконец, на основе обнаруженных компонентов эти авторы использовали принципы текстовых запросов для экспериментального запроса.

Учитывая большую коллекцию флуоресцентных изображений, Coelho et al. (2010) использовали LDA для определения паттернов субклеточной локализации на этих изображениях.Их работа похожа на то, что делается в компьютерном зрении: изображение представлено смесью нескольких основных паттернов (тем), а ключевые моменты определяются как визуальные слова.

Для данных о последовательности генов желательной задачей является охарактеризовать набор общих геномных признаков, общих для одного и того же вида. Chen et al. (2010, 2012a, b) проанализировали состав последовательностей ДНК на уровне генома с помощью LDA. Во-первых, они представляли последовательности ДНК частотами N-мер. После этого последовательности генома считались документами, а N-мерки считались «словами.Затем были обнаружены статистические закономерности (темы) на уровне генома путем введения модели LDA. Каждая предполагаемая тема представляет собой определенный компонент всего генома.

Исследование Chen et al. (2011) были сосредоточены на данных о численности таксонов микробных сообществ, включая кодирующие белки последовательности и их таксономические уровни NCBI. В этом исследовании модель LDA с фоновым распределением (LDA-B) расширяет модель LDA, добавляя фоновое распределение общих функциональных элементов.Модель LDA-B использовалась для обнаружения функциональных групп: набор геномов служил корпусом документов, который содержал смесь функциональных групп; каждая функциональная группа (тема) представляла собой взвешенную смесь функциональных элементов; функциональные элементы служили «словами».

Для данных аннотации генома Konietzny et al. (2011) использовали LDA для прямой идентификации функциональных модулей семейств белков. Во-первых, чтобы обрабатывать аннотации генома как документы, словарь слов фиксированного размера был определен на основе аннотаций, и одно слово можно было рассматривать как функциональный дескриптор.Затем темы, определенные LDA, представляют собой функциональные модули.

Лю и др. (2011) и Zhang et al. (2012a) описали тематическую модель, которая может обнаруживать функциональные регуляторные модули микроРНК (FMRM) в профилях экспрессии микроРНК и мРНК. В этом исследовании они сопоставили темы с функциональными модулями, образцы с документами, а образцы были профилированы с помощью набора микроРНК и набора мРНК. Следовательно, функциональные модули, выведенные с помощью модифицированного соответствия латентного распределения Дирихле (Corr-LDA), действуют как мост между микроРНК и мРНК.Corr-LDA успешно использовался для аннотирования изображений с помощью подписных слов. Наконец, набор данных экспрессии из экспериментальной модели на мышах был эмулирован этой тематической моделью для исследования рака груди человека.

Для анализа клеточных конечных точек на основе анализов высокого содержания (HCS) in vitro, Bisgin et al. (2013) также представили LDA. Для каждого препарата они создали документ для каждой из четырех временных точек. Предполагалось, что документ содержит вхождения измерений конечной точки (слова).Они предположили, что выражение конечных точек HCS можно смоделировать как распределение вероятностей «тем». Затем агентство LDA построило вероятностные ассоциации между темами и наркотиками.

Использование для классификации биологических данных

Помимо кластеризации немаркированных биологических данных, тематическая модель может выполнять задачи классификации помеченных биологических данных. Другими словами, тематическая модель может не только открывать темы, но и заставлять их соответствовать истинным биологическим ярлыкам.Тем не менее, как модели обучения без учителя, PLSA и LDA не предлагают очевидного способа включения контролируемого набора в свою процедуру обучения. Следовательно, для этих типов исследований модель LDA должна быть так или иначе адаптирована.

Как показано на рис. 5, как и кластеризация, тематическая модель классифицирует открытия биологических «тем» из множества биологических данных. Между тем, эти биологические «темы» помечены настоящими биологическими терминами, которые также можно назвать ярлыками. Для помеченных данных этот режим работы тематической модели полезен для интерпретации темы и предоставляет инструменты для настройки сгенерированных тем в соответствии с приложением конечного использования.Более того, по сравнению с другими подходами к классификации, такими как машина опорных векторов (SVM) (Rubin et al. 2011), результат классификации тематической модели при определенных условиях показывает конкурентоспособность. Точно так же несколько примеров соответствующих статей проиллюстрируют подобные проекты в этом разделе.

Во-первых, для данных экспрессии микрочипов, предмет исследования исследований Perina et al. (2010) аналогична работе Rogers et al. (2005) и Пратанванич и Лио (2014): существует прямая аналогия между парами слово-документ и ген-образец.Тем не менее, Perina et al. представили биологически осведомленное латентное распределение Дирихле (BaLDA) для выполнения задачи классификации, которая расширяет модель LDA за счет интеграции зависимостей документов и начинается с LPD. BaLDA не содержит предположения, присутствующего как в PLSA, так и в LDA, что каждый ген генерируется независимо с учетом соответствующей скрытой темы. Априорное знание об отношениях между генами выражается в терминах классификации генов. На этапе обучения эту категоризацию (тему) можно вычислить заранее; на этапе тестирования его также можно оценить.Наконец, авторы продемонстрировали полезность BaLDA в двух классификационных экспериментах. Другое исследование по классификации данных экспрессии генов - это модель LDA на основе путей, предложенная Пратанваничем и Лио (2014). Это исследование было направлено на изучение отношений между лекарственным средством, путем и геном, рассматривая известные ассоциации генов и путей как предварительные знания. В этом исследовании они провели аналогию между геном-лекарственным средством и словом-темой-документом. Они рассматривали гены как слова и рассматривали путь как тему. Во-первых, на этапе обучения были созданы псевдолекарственные документы, а модель была изучена путем вывода параметров.Затем, для нового псевдолекарственного документа, эта модель может предсказать чувствительность пути к новому лекарственному лечению.

Для связанных с пациентами текстов, построенных на основе клинических и многомерных геномных измерений, Доусон и Кендзиорски (2012) предложили модель скрытого распределения Дирихле с контролируемым выживанием (SurLDA), которая представляет собой модель контролируемых тем. Модель SurvLDA была вдохновлена ​​sLDA (Mcauliffe and Blei, 2008), примененной к оценке фильмов, и решала следующие задачи: характеристика подтипов рака и классификация отдельных пациентов в соответствии с этими подтипами.Они считают текст каждого пациента «документом», а «слова» описывают клинические события, протоколы лечения и геномную информацию из множества источников. Тогда «темы» - это неявные категории пациентов.

Наконец, в проблеме классификации геномных последовательностей La Rosa et al. (2015) считают геномные последовательности документами, небольшие фрагменты цепочки ДНК размером k - словами, а темам, обнаруженным LDA, присваиваются таксономические ярлыки. Примечательно, что это исследование похоже на исследование Chen et al.(2010, 2012а, б). Тем не менее, разница в том, что тема, обнаруженная в данных о геномных последовательностях, не только имеет распределение вероятностей по словам, но также соответствует истинной таксономической метке.

Использование для извлечения признаков биологических данных

В тематическом моделировании термин «пространство документов» был преобразован в пространство «темы», а пространство «тема» меньше, чем пространство слов. Поэтому вероятностная тематическая модель также является популярным методом уменьшения размерности для коллекций текстовых документов или изображений.Точно так же уменьшение размерности является общей и часто необходимой задачей при анализе биологических данных. Как показано на рис. 5, мы можем использовать тематическую модель для проецирования исходного пространства признаков биологических данных на скрытое тематическое пространство. После уменьшения размерности таким образом другие алгоритмы, такие как классификатор, могут обрабатывать результирующие характеристики темы на более позднем этапе, как в общем пространстве функций.

Одно исследование в этой области было проведено для магнитно-резонансной томографии (МРТ).Чтобы повысить точность классификации различий между здоровыми субъектами и пациентами с шизофренией, Castellani et al. (2010) применили модель PLSA: каждое изображение рассматривалось как документ, дескрипторы формы изображений служили визуальными словами, а затем геометрические узоры поверхности мозга рассматривались как визуальные темы. Они извлекли генеративную оценку из изученной модели, которая использовалась в качестве входных данных SVM для задачи классификации.

Для данных о последовательности белков Pan et al.(2010) предложили иерархическую модель скрытого случайного распределения Дирихле (LDA-RF) для прогнозирования белок-белковых взаимодействий человека. Во-первых, пространство признаков локальной последовательности было спроецировано на скрытое семантическое пространство (темы) с помощью модели LDA; это тематическое пространство отражает скрытые структуры между белками и является входом для следующего шага. Затем вероятность взаимодействия двух белков была предсказана с помощью модели случайного леса на основе тематического пространства.

Как и в других исследованиях данных экспрессионных микрочипов (Rogers et al.2005; Masada et al. 2009), Bicego et al. (2010b, 2012) также провели аналогию между парами слово-документ и ген-образец. Тем не менее, последнее исследование ввело модели PLSA, LDA и LPD в задачу классификации микрочипов. На этапе обучения использовалась тематическая модель для извлечения вектора признаков, который на самом деле представляет собой набор тем. Затем классификатор, основанный на правиле K-ближайшего соседа, был обучен в преобразованном обучающем наборе. На этапе тестирования тот же процесс извлечения признаков был применен к набору тестов, который затем был классифицирован с помощью обученного классификатора.

Zhang et al. (2015) использовали тематическую модель для отнесения метагеномных чтений к разным видам или таксономическим классам. Во-первых, они представляли каждое метагеномное чтение (документ) как набор «k-мер» (слов). Затем модель LDA была применена к чтениям и сгенерирован ряд скрытых «тем». Наконец, они использовали SKWIC - вариант классического алгоритма K-средних - для кластеризации этих чтений, представленных распределениями тем.

Использование в других областях биоинформатики

В дополнение к вышеупомянутым исследованиям существует несколько проектов, в которых тематическая модель была применена к биологическим данным инновационным способом.Выяснить основные законы этой области сложно из-за ее разнообразия. Тем не менее, ниже представлены примеры соответствующих статей.

Чтобы использовать тематическую модель для бимолекулярных аннотаций, Masseroli et al. (2012), Пиноли и др. (2013, 2014) определили матрицу совместной встречаемости как аннотации. В матрице, если ген аннотирован онтологическим термином, значение равно 1.0; в противном случае - 0. Учитывая корпус аннотаций, представленный этой матрицей, они использовали модифицированную тематическую модель для оценки распределений вероятностей терминов по теме и распределений вероятностей темы по генам.Затем они смогли перестроить матрицу аннотаций. Элемент этой матрицы дает оценку вероятности того, что ген аннотирован для термина. Следует отметить, что, хотя как вышеупомянутое исследование, так и исследование Konietzny et al. (2011) посвящены данным аннотации генома, Пиноли и его коллеги использовали тематическую модель как инструмент разложения матрицы, а не алгоритм кластеризации.

Тематические модели, применяемые в биоинформатике

Из описания соответствующих статей выше мы можем сделать вывод, что большинство исследований по тематическому моделированию в биологических данных напрямую использовали существующие тематические модели, такие как PLSA и LDA.И PLSA, и LDA являются относительно простыми тематическими моделями и служат основой для других, расширенных тематических моделей. Между тем, основное предположение в LDA или PLSA может быть нарушено в специальном сценарии приложения; затем необходимо скорректировать процесс генерации и алгоритм вывода. Следовательно, некоторые исследователи в последние годы пытались улучшить модель LDA для новых биологических контекстов. Типы тематических моделей, которые использовались в 30 вышеупомянутых статьях, сведены в Таблицу 3.

Таблица 3 Сводка типов тематических моделей в соответствующих исследованиях (см. Раздел «Тематические модели, применяемые к биоинформатике»)

«Документ-слово-тема» в биологических данных

В приведенном выше введении к тематическим моделям мы видим, что суть тематического моделирования состоит в назначении трех объектов: документов, слов и тем.Точно так же описания соответствующих исследований выше также указывают на то, что ключевая задача тематического моделирования в биологических данных - провести соответствующую аналогию между документом-темой-словом и биологическим объектом. В таблице 4 приведенные выше исследования сгруппированы по аналогии между терминами, используемыми в интеллектуальном анализе текста, и терминами в биологии.

Таблица 4 Краткое изложение аналогий между документом-темой-словом и биологическим объектом в соответствующих исследованиях (см. Раздел «Документ-слово-тема» в биологических данных »)

Как показано в приведенном выше резюме, независимо от того, какие биологические данные моделируются, основная идея состоит в том, что набор биологических данных похож на набор документов.То есть набор данных состоит из смеси биологических процессов, которые можно рассматривать как темы, а биологический процесс состоит из набора биологических слов, которые можно сравнить со словами, используемыми для представления темы.

Тематическое моделирование в НЛП. С акцентом на Скрытый Дирихле… | автор: Арун Джагота

С акцентом на скрытое размещение Дирихле

Фотография Митчелла Луо на Unsplash

В обработке естественного языка термин тема означает набор слов, которые «идут вместе».Это слова, которые приходят на ум при размышлениях над этой темой. Возьмем спорт . Вот несколько таких слов: Athlete , soccer и stadium .

Тематическая модель - это модель, которая автоматически обнаруживает темы, встречающиеся в коллекции документов. Затем можно использовать обученную модель, чтобы определить, какие из этих тем встречаются в новых документах. Модель также может выбирать, какие части документа охватывают какие темы.

Взгляните на Википедию.В нем миллионы документов по сотням тысяч тем. Разве не было бы замечательно, если бы их можно было обнаружить автоматически? Плюс более точная карта того, какие документы охватывают какие темы. Это были бы полезные дополнения для людей, желающих исследовать Википедию.

Мы также могли открывать для себя новые темы, когда о них писали документы. В некоторых условиях (например, в новостях), где постоянно создаются новые документы и актуальность имеет значение, это поможет нам выявить актуальные темы.

Этот пост описывает статистически мощный и широко используемый подход к этой проблеме.

Скрытое распределение Дирихле

Этот подход включает построение явных статистических моделей тем и документов.

Тема моделируется как распределение вероятностей по фиксированному набору слов (лексикону). Это формализует «набор слов, которые приходят на ум при обращении к этой теме». Документ моделируется как распределение вероятностей по фиксированному набору тем. Это раскрывает темы, охватываемые документом.

Цель обучения состоит в том, чтобы выявить из совокупности документов хорошее распространение слов по различным темам, а также правильные пропорции тем в различных документах.Количество тем является параметром этого обучения.

Создание документа

На этом этапе это поможет описать, как сгенерировать синтетический документ из изученной модели. Это позволит выявить ключевые аспекты работы этой модели, в которые мы еще не вникали.

Сначала мы выберем темы, которые будут рассмотрены в этом документе. Один из способов сделать это - сначала выбрать случайный документ из нашего корпуса, а затем установить пропорции темы нового документа в соответствии с пропорциями исходного документа.

Далее мы установим длину документа, назовем ее n .

Затем мы повторим следующее n раза:

 выборка темы из пропорций темы документа 
выборка слова из распределения слов выбранной темы

Это выдаст последовательность из n слов. Эти слова будут сопровождаться темами, из которых они были взяты.

Получившийся документ - тарабарщина. Пакет слов, взятых из множества тем.Это не проблема - это не предназначалось для чтения. Он действительно показывает, какие слова были созданы из каких тем, что может быть полезным.

Пример

  Словарь : {спортсмен, футбол, футбол, теннис, компьютер, смартфон, ноутбук, принтер, Intel, Apple, Google} 
Num Topics : 3
Тема 1 : {спортсмен, футбол, футбол, теннис}
Тема 2 : {компьютер, смартфон, ноутбук, принтер}
Тема 3 : {Intel, Apple, Google}
Пропорции темы в документе : {2 ⇒ 70%, 3 ⇒ 30%}

Выше мы описали тему как набор слов.Мы интерпретируем это так: все слова в наборе равновероятны; остальные слова в лексиконе имеют нулевую вероятность.

Рассмотрим документ, состоящий из 4 слов.

 Тема: 2 3 2 2 
Word: ноутбук Intel смартфон компьютер

Доля темы 3 в этом документе (25%) близка к ее доле (30%) в его выборочном распределении.

Обучение

Как обычно, именно здесь все становится особенно интересно.

Во-первых, напомним себе о цели обучения.Он предназначен для обнаружения из корпуса документов распределения слов различных тем и пропорций тем в различных документах. Короче говоря, какими словами описывается какая тема и какие темы освещаются в каком документе.

Алгоритм, который мы опишем, широко используется. Это тоже нетрудно понять. Это форма Gibbs Sampling .

Этот алгоритм работает, сначала каким-то образом присваивая темы различным словам в корпусе, а затем итеративно улучшая эти назначения.В процессе работы алгоритм отслеживает определенную статистику по текущим заданиям. Эти статистические данные помогают алгоритму в его последующем обучении. Когда алгоритм завершается, легко «считать» распределение слов по темам и пропорции тем по каждому документу из окончательных заданий по темам.

Начнем с описания статистики, упомянутой в предыдущем абзаце. Они имеют форму двух матриц счетчиков: topic_word и doc_topic. Оба являются производными от текущего присвоения тем словам в корпусе.topic_word ( t , w ) подсчитывает количество вхождений темы t для слова w . doc_topic ( d , t ) подсчитывает количество вхождений темы t в документ d .

Давайте посмотрим на числовой пример, чтобы убедиться, что все правильно. Ниже мы видим корпус из двух документов вместе с назначением тем для его слов. Лексика: A, B, C.

 Слова документа 1: ABACA Слова документа 2: BCCB 
Темы документа 1: 1 1 1 2 2 Темы документа 2: 2 2 2 2

На самом деле давайте сначала воспользуемся этой возможностью, чтобы поразмышлять над некоторые особенности мы видим.В документе 1 обратите внимание, что A иногда назначается теме 1, а иногда - теме 2. Это правдоподобно, если слово A имеет высокую вероятность в обеих темах. В документе 2 обратите внимание, что B последовательно назначается теме 2. Это правдоподобно, если документ 2 охватывает только тему 2, а B имеет положительную вероятность в распределении темы 2.

Хорошо, теперь к двум матрицам отсчетов.

  тема_слово :  doc_topic : 
ABC 1 2
1 2 1 0 d1 3 2
2 1 2 3 d2 0
    01 4 некоторые записи, которые немного бросаются в глаза.Возможно, doc2 предпочитает тему 2. Возможно, тема 2 предпочитает слово C.

    Хорошо, давайте начнем объяснять обучение. Первый шаг - пометить слова в корпусе случайно выбранными темами. Звучит достаточно просто. На самом деле это еще не все. Вместо того, чтобы жестко кодировать эту случайную выборку, лучше выбрать подходящие априорные распределения. Это дает нам потенциально мощный механизм для внедрения знаний предметной области или результатов внешнего анализа текста.

    Этот априорный механизм работает следующим образом.Сначала мы делаем копии двух представленных ранее матриц. Назовите их Prior_topic_word и Prior_doc_topic соответственно. Как и раньше, записи в этих матрицах являются счетчиками. Эти подсчеты отражают наши предыдущие убеждения.

    Эти предварительные матрицы влияют на первоначальное назначение тем. По мере обучения это влияние уменьшается, хотя и не до нуля.

    Как именно мы выбираем первоначальное распределение тем из этих подсчетов? Сначала мы вычисляем

    P (w | t) = Prior_topic_word (t, w) / sum_w ' (Prior_topic_word (t, w'))
    P (t | d) = Prior_doc_topic (t, d) / sum_t '(Prior_doc_topic (t', d)

    P ( w | t ) - это лишь часть заданий темы t , слово которой равно w . P ( t | d ) - это лишь часть слов в документе d , чья назначенная тема - t .

    Затем мы выбираем из них задания. В частности, мы выбираем тему для слова w в документе d из распределения, числителем которого является P ( w | t ) P ( t | d ).

    Это можно понять следующим образом. P ( w | t ) P ( t | d ) - это в точности вероятность генерации слова w в документе d в нашей генеративной модели.Рассматриваемый как функция от t , он отражает вероятность того, что t использовалось во время этого процесса.

    Теперь давайте обсудим установку значений этих счетчиков в двух предыдущих матрицах. Для наших целей здесь все, о чем мы заботимся, - это чтобы ни одна тема не была предпочтительнее другой. Такие предпочтения были бы нежелательными предубеждениями. Мы можем добиться этого, установив для всех счетчиков в каждой матрице одно и то же положительное число. 1 - самый простой выбор. Рассуждения Оккама.

     Prior_topic_word ( t ,  w ) = 1 для каждой темы  t  и word  w  
    Prior_doc_topic ( d , t ) = 1 для каждого документа d и t темы

    Хорошо, поэтому тематические задания будут выбираться из этих подсчетов и выходить равномерно случайным образом.

    После этого начального задания мы будем постоянно делать следующее в надежде улучшить задание и, следовательно, наши модели извлекли уроки из него:

     1. Выберите слово  w  из документа  d  в корпусе 
    2. Выберите тему t 'из распределения с числителем
    Q ( w | t ) Q ( t | d )
    3. Установите тему w в d до т '.

    Что такое Q ( w | t )? В настоящее время мы верим в вероятность образования слова w из темы t . Фактически, нам нужны хорошие значения Q ( w | t ). Они сформируют окончательные тематические распределения слов.

    Перед тем, как начать обучение, мы зафиксировали все предыдущие представления об этом распределении в P ( w | t ). По мере обучения P ( w | t ) начинает преобразовываться в апостериорное убеждение Q ( w | t ).

    Q ( t | d ) объяснение аналогично. Наши предыдущие представления о пропорциях тем в каждом документе сводятся к P ( t | d ). По мере обучения они пересматриваются в Q ( t | d ).

    Как вычисляются Q ( w | t ) и Q ( t | d )? Подумайте о распределении тем по различным словам в корпусе на любом этапе обучения.Из этого назначения тем мы можем вычислить количество в матрицах topic_word и doc_topic. Затем мы выполняем следующие действия:

     posterior_topic_word = topic_word + Prior_topic_word 
    posterior_doc_topic = doc_topic + Prior_doc_topic

    Обратите внимание, что «+» - это сложение матрицы. Из апостериорных версий матриц подсчета мы можем вычислить Q ( w | t ) и Q ( t | d ). Так же, как мы вычислили P ( w | t ) и P ( t | d ) из предыдущих версий.

    Немного интуиции

    Как мы узнаем, что этот итеративный процесс на самом деле улучшает назначение тем? Мы не дадим доказательств. Вместо некоторой интуиции.

    Во-первых, обратите внимание, что общее качество назначения тем словам в корпусе может быть получено путем умножения различных Q ( w | t ) Q ( t | d ) терминов по всем вхождениям слов w в корпусе. Здесь d обозначает документ, в котором фигурирует w , а t - тема, назначенная этому вхождению.

    Далее мы покажем, что функция оценки имеет определенные желательные характеристики.

    Эта функция оценки способствует специфичности темы

    Под «специфичностью темы» мы подразумеваем, что Q ( w | t ) сосредоточен только на нескольких темах. Это желаемое свойство тех слов, которые сильно коррелируют с конкретными темами. Давайте уточним. Рассмотрим разнообразный корпус, такой как Википедия. Скажем, наша цель - открыть для себя широкий спектр тем, которые он охватывает.Рассмотрим слово кошка . Его тематическая специфика высока, то есть затрагивает лишь некоторые из этих тем. Как это должно. Так что предвзятость функции оценки в пользу специфики темы - это хорошо.

    Тем не менее, не каждое слово должно быть тематическим. Например . Позже мы обсудим отдельный механизм, который будет противодействовать специфике темы в таких случаях. Во-первых, давайте объясним предвзятость тематики. Мы будем называть тематические слова информативными .

    Рассмотрим n >> 1 вхождений одного и того же слова w в корпус, возможно, разбросанных по многим документам. Пусть T 1 и T 2 будут двумя разными тематическими назначениями для этих n вхождений. Все темы в T 1 разные. Назовите этот набор { 1 , 2 , 3 ,…, n }. Все темы в T 2 одинаковые, та, которая максимизирует Q ( w | t ).. Вероятность T 2 может быть намного выше, чем вероятность T 1, когда w является информативным, а n не слишком мала.

    Этот анализ можно резюмировать как

     Функция оценки побуждает информативные слова оставаться по теме 

    Эта функция оценки способствует специфичности документа

    Под «специфичностью документа» мы подразумеваем, что документ охватывает только несколько тем. Документы имеют тенденцию быть конкретными. Вопрос в том, использует ли функция оценки (и, следовательно, алгоритм обучения) эту тенденцию, чтобы лучше выполнять свою работу.Ответ положительный. Как объяснено ниже.

    Рассмотрим документ d на n слов. Пусть T 1 и T 2 будут двумя разными тематическими назначениями его словам. Все темы в T 1 разные. Назовите этот набор { 1 , 2 , 3 ,…, n }. Все темы в T 2 одинаковы, на этот раз с наибольшей долей в d . Назовите его tmax . T Вероятность 1 ниже Q ( t | d ) равна Q ( 1 | d ) Q (2 | d ) *… * Q ( n | д ).. Очевидно, что T2 может быть намного выше, особенно для больших документов.

    Этот анализ можно резюмировать как

     Функция оценки побуждает документы оставаться по теме 

    Эти влияния иногда соперничают!

    Рассмотрим особенно распространенное слово: the . Есть основания полагать, что он встречается почти во всех документах. Согласованность по темам способствует тому, что всем этим случаям назначается одна и та же тема. Протесты о специфичности документов, так как это заставит все эти документы охватывать только одну тему.

    Давайте представим, как это может закончиться. Последовательность темы может ослабить хватку для таких слов. Назначенные им темы могут просто «плыть по течению», приобретая идентичность той темы, которая обсуждается в округе. Несомненно, компонент согласованности темы вероятности этих заданий может уменьшиться. С другой стороны, доля специфики документа увеличится.

    Подробнее об алгоритме обучения

    Мы увидели, что функция оценки в хорошем смысле смещена.Это полезно только в том случае, если алгоритм обучения их хорошо использует. Итак, давайте перейдем к более подробному обсуждению алгоритма.

    Начнем с того, что алгоритм работает путем локальной оптимизации глобального показателя качества задания темы. Одно это говорит о том, что он обращает внимание на предубеждения.

    Далее мы рассмотрим одну или две итерации на простом примере. Это поможет читателю лучше понять его «локальную оптимизацию». Здесь больше нюансов, чем некоторые могут представить.

    Пример

    Мы установим словарь на {A, B}. В нашем корпусе будет два документа: AAA (d1) и BBB (d2). (Хотя это может показаться глупым, это упражнение будет поучительным.) Мы постараемся уместить в корпус две темы.

    Давайте установим все предыдущие отсчеты на 0,0000001. Он по-прежнему будет производить начальные назначения, которые будут равномерно случайными, хотя и упростит наши числовые вычисления.

    Скажем, следующее является начальным назначением

     d1 d2 
    AAA BBB
    121 122

    Модель, изученная в результате этого назначения:

     Q (A | 1) = ⅔, Q (B | 1) = ⅓ // эти сумма 1 
    Q (A | 2) = ⅓, Q (B | 2) = ⅔ // эта сумма равна 1
    Q (1 | d1) = ⅔, Q (2 | d1) = ⅓ // эта сумма равна 1
    Q (1 | d2) = ⅓, Q (2 | d2) = ⅔ // эта сумма равна 1

    А теперь представьте, что вы выбираете слово из d 1 и повторно выбираете его тему.(Вместо этого мы могли бы выбрать d 2, но рассуждения аналогичны.) Возможны три исхода: 121 → 121, 121 → 1 1 1, 121 → 12 2 или 2 21. Третий. эффективно то, с чего мы начали: поменяйте местами названия тем и измените порядок. Таким образом, первый и третий результат фактически вернули нас в одно и то же состояние. Итак, давайте увеличим масштаб второго: 121 → 111. Вероятность этого перехода положительна. (На самом деле довольно много, поскольку переключение с 2 на 1 улучшает как компонент вероятности темы, так и компонент вероятности документа.) Итак, если мы продолжим повторять этот процесс, в какой-то момент всем d1 будет назначена одна и та же тема t (= 1 или 2).

    Затем мы повторно оцениваем различные параметры модели из этого назначения от t до d 1. Q ( t | d 1) теперь 1. Q (A | t ) вполне может быть выше, чем Q (A | 1) было, когда мы начали этот процесс. Мы достигли «счастливого состояния», из которого трудно выбраться.

    Варианты

    Теперь рассмотрим несколько вариантов этого алгоритма.Сюда входит изменение шага 2 ниже.

     1. Выберите слово  w  из документа  d  в корпусе 
    2. Пример темы t 'из распределения, числителем которого является
    Q ( w | t ) Q ( t | d )

    3. Установите тему w в d на t '.

    Мы можем заменить шаг 2 на «установить t’ в тему, которая максимизирует Q ( w | t ) Q ( t | d ) ».Это называется оценкой максимального правдоподобия. В наших условиях это дает жадный алгоритм.

    Этот вариант привлекателен своей простотой и может быстрее сойтись. Однако он более подвержен попаданию в ловушку неоптимальных локальных оптимумов.

    В нашем следующем варианте вводится параметр, называемый температура , который может варьироваться для охвата различных режимов от сэмплера Гиббса до жадного алгоритма. В этом и заключается привлекательность этого алгоритма. Однако это открывает новую проблему: как установить температуру.

    Оставив в стороне температуру, посмотрим, как она работает. Рассмотрим слово w , текущая тема которого t рассматривается для переназначения. Для каждой темы t 'мы оцениваем

     дельта (t') = - [log  Q  ( w  |  t  ')  Q  ( t ' |  d ) - log  Q  (  w  |  t )  Q  ( t  |  d )] 

    Мы не будем объяснять, почему здесь журнал. Отметим, что дельта ( t ’), меньшая 0, соответствует t ’, что лучше подходит, чем t в этой ситуации.Переход с t на t ’можно рассматривать как движение с уменьшением энергии (или спуском по склону).

    Что будет дальше? Опишем качественно. Итак, теперь мы знаем дельту ( t ’) для различных значений t ’, включая t . По этим дельта-значениям алгоритм определяет подходящее распределение вероятностей по темам. Это распределение параметризуется температурой.

    При высокой температуре разрешены даже «движения в гору», т. Е. Переходы к темам, дельта-значения которых положительны.Такие шаги, хотя и возвращаются к текущему заданию по теме, могут помочь избежать локальных минимумов энергии.

    При низкой температуре распределение благоприятствует движениям, дельта-значения которых отрицательны. В экстремальных условиях нулевой температуры это приводит к жадному поведению.

    Richer Priors

    На данный момент мы установили предварительный счет на 1. Здесь мы рассматриваем более богатые настройки.

    Ранее мы отмечали, что желательно, чтобы определенные слова были тематическими. Можем ли мы найти такие слова и учесть их тематические предпочтения в предварительном подсчете? Это может ускорить последующее обучение.

    Вот разумный способ сделать это. Сначала мы установим все предыдущие подсчеты на 1. Затем для каждого слова w, мы вычислим n - n ( w ). Здесь n - общее количество документов в корпусе, а n ( w ) - количество документов, в которых встречается слово w . Подумайте о n - n ( w ) как о чем-то вроде «обратной частоты документа» от до . Далее мы проделаем следующие действия независимо для каждого из слов.Мы выберем тему t случайным образом из вселенной тем. Мы добавим n - n ( w ) к предыдущему счету word_topic ( t , w ).

    Идея состоит в том, чтобы сопоставить необычные слова с определенными темами. Поскольку выбор темы случайный, разные слова, скорее всего, будут соответствовать разным темам.

    Не слишком ли предвзято это априори? Мы можем легко смягчить его, если почувствуем, что это так. Есть несколько возможностей. Один из них - заменить n - n ( w ) на log n - log n ( w ).Второй - выбрать более одной темы (хотя и немного) при усилении предшествующего подсчета слова.

    Другие улучшения моделирования

    Какие еще области следует учитывать при улучшении модели? Во-первых, давайте поясним его предположения:

     1. Темы, охватываемые документом, выбираются независимо. Они 
    на совместимость не проверяются.
    2. Близость слов в документе не учитывается.
    3. Иерархическая структура между темами не моделируется.

    Давайте поговорим немного о каждом. Совместимость тем может быть важной. Документ, скорее всего, будет охватывать технологических компаний и компьютеров , чем технических компаний и спорта. Близость слова также имеет значение. Два слова, которые часто встречаются рядом друг с другом, с большей вероятностью относятся к одной теме, чем слова, разделенные тысячами слов. Иерархии тем лучше моделируют документы. Распространенный образец написания - документ, охватывающий широкую тему вместе с различными подтемами.

    Ниже мы описываем, как решить эти проблемы. Ослабления могут повысить точность модели в некоторых случаях использования, хотя и за счет повышения ее сложности или обучаемости. Они также предлагают возможности внедрить знания в предметной области. Плюс в некотором смысле даже помочь с обучением!

    Как именно это будет происходить, во многом зависит от варианта использования.

    Совместимость тем

    Это включает добавление модели Маркова к смеси. Его состояния - это темы.Его переходы модели совместимости между темами в корпусе.

    Как эта модель используется при выборе темы слова в документе? Нам нужно соответствующим образом удлинить Q ( t | d ). Это расширение проще всего описать, представив из него выборочные темы.

    Эту выборку можно рассматривать как случайное блуждание по модели Маркова с, возможно, периодическими перезапусками. Мы начинаем прогулку с выбора темы из Q ( t | d ).Далее делаем следующее. Большую часть времени мы проходим переход от состояния этой темы с вероятностью, которая есть на этом переходе. Иногда мы производим повторную выборку из Q ( t | d ), то есть переходим к новой теме.

    Это случайное блуждание вызывает новое распределение, назовем его Q ’( t | d , M), на которое влияют как модель Маркова M, так и Q ( t | d ). Модель Маркова - это конструкция на уровне корпуса.Использование Q ( t | d ) настраивает его поведение в соответствии с документом d .

    Как изучаются параметры марковской модели? Это легче объяснить. Наш алгоритм обучения к этому моменту уже работает на уровне присвоения тем отдельным словам в документах корпуса. Этим заданием полностью определяются параметры марковской модели.

    В частности, для каждой пары s , t назначений тем в документе мы увеличиваем счетчики на дугах s t и t s , если s не равно t в этом случае только один раз.

    По мере улучшения тематических заданий улучшаются и параметры модели тематической совместимости. Эти двое действуют синергетически.

    Давайте посмотрим на эту синергию в более широком контексте. Поскольку мы видим все больше и больше документов по одним и тем же двум темам, модель Маркова начинает понимать, что эти темы совместимы. Это улучшенное обучение приводит к улучшенным заданиям тем в других местах.

    Word Proximity

    Это можно включить, соответствующим образом расширив Q ( w | t ).В частности, пусть на выбор t влияют не только слова w , но и слова рядом с w .

    Давайте формализуем это. Пусть W ( d ) = w (- d ),…, w ,…, w (+ d ) обозначает последовательность слов длиной 2 d +1 с центром на w . Здесь d - целое неотрицательное число. Затем мы расширяем Q ( w | t ) до Q ( W ( d ) | t ).

    Усложняет ли это нашу модель с точки зрения обучения? С подходящим предположением, к счастью, нет. Мы предполагаем, что слова в W ( d ) условно независимы при условии t . При этом предположении получаем

      Q  ( W  ( d ) |  t ) =  Q  ( w  (-  d ) |  t ) *… *  Q  (  w  |  t ) *… * Q ( w  (+  d ) |  t ) 

    Термины RHS, включающие t , имеют те же формы, что и раньше.Так что обучение не требует изменений!

    Несмотря на это предположение, мы получаем преимущества, связанные с использованием контекста. Главный из них заключается в том, что тема, присвоенная центральному слову w , может быть определена более точно, поскольку теперь у нас больше контекста. Еще одна полезная характеристика, особенно на ранних этапах обучения, заключается в том, что мы получаем некоторую преемственность темы. Когда мы сдвигаем окно W ( d ) по одному слову за раз, назначенная тема вряд ли изменится, поскольку контекст не сильно изменился.По сравнению с W (0).

    Иерархия тем

    Это сложная тема. Наше освещение здесь частичное.

    Вот ключевое наблюдение. Сравнение распределения слов в двух темах может помочь понять, является ли одно потомком другого. Ключевые слова потомка будут иметь тенденцию быть подмножеством ключевых слов предка.

    Используя это понятие, мы можем (повторно) изучить иерархию по темам в любое время в процессе обучения. Даже грубая усвоенная иерархия может быть лучше, чем ничего.

    Как и для совместимости тем, мы можем расширить наши модели Q ( t | d ), чтобы учесть изученную иерархию. Здесь это расширение проще всего описать, представив из него выборочные темы для конкретного документа.

    Эта выборка представляет собой случайное блуждание по иерархии с возможными периодическими перезапусками. Мы начинаем прогулку с выбора темы из Q ( t | d ). Далее делаем следующее. Большую часть времени мы ходим к ребенку из этой темы.Иногда мы выполняем повторную выборку из Q ( t | d ), то есть переходим к теме в другом месте иерархии.

    Это случайное блуждание приводит к новому распределению, назовем его Q ’( t | d , H), на которое влияют как тематическая иерархия H, так и Q ( t | d ). Иерархия тем - это конструкция на уровне корпуса. Использование Q ( t | d ) настраивает его поведение в соответствии с документом d.

    Улучшения, улучшающие читаемость

    Читаемость документа не является основной целью LDA. Тем не менее, структура моделирования предоставляет возможности для внедрения механизмов, которые ее улучшают. Так что давайте воспользуемся этим.

    Давайте начнем с выявления проблем.

     1. Преемственность темы не сохраняется. Соседние слова могут переходить 
    от темы к теме.
    2. Связность темы не поддерживается. Тема
    самостоятельно извергает свои слова.

    Непрерывность темы

    Мы можем сохранить непрерывность темы, добавив модель Маркова с двумя состояниями: продолжить и переключить . Продолжить , чтобы продолжить текущую тему, переключить , чтобы переключиться на новую. Дуга от до продолжения на себя должна иметь высокую вероятность. Дуга от switch до continue должна иметь вероятность, близкую к единице, так как мы почти наверняка хотим продолжать следовать за переключателем.

    Вероятности этой модели легко узнать из заданий по темам. В них похоронены события continue и switch . Такое обучение согласуется с изучением заданий по теме, многократно принося пользу друг другу.

    Использование близости слов в документах также помогает поддерживать непрерывность темы. Причина, по которой мы решили рассмотреть подход и в этом разделе, заключается в том, что его гораздо проще реализовать, чем близость слов.

    Это также способствует обучению

    Помимо удобочитаемости, внедрение механизма непрерывности темы также потенциально улучшает качество изученных заданий.По сути, он действует как регулятор плавности, не позволяя выбросам.

    Вот пример расширения того, что мы использовали ранее. Рассмотрим слово , слово , которое, как мы предположили, встречается почти во всех документах в корпусе. Ранее мы объяснили, почему мы хотим, чтобы тема, присвоенная конкретному вхождению и , «плыла по течению» темы в своем окружении. Механизм непрерывности темы добавляет этому предпочтению больше веса, поскольку он явно поддерживает «плыть по течению».

    Слаженность темы

    Мы можем сохранить последовательность темы, ослабив предположение о мешке слов. Вместо этого используйте марковскую модель первого порядка, которая моделирует влияние текущего слова на следующее. У каждой темы своя марковская модель.

    Тематические модели Маркова легко (повторно) изучить из текущего тематического задания в корпусе.

    Дополнительная литература

    Дэвид М. Блей. Вероятностные тематические модели. Коммуникации ACM.2012 http://www.cs.columbia.edu/~blei/papers/Blei2012.pdf

    Дэвид М. Блей, Эндрю Нг, Майкл Джордан. Скрытое размещение Дирихле. JMLR (3) 2003, стр. 993–1022.

    Том Гриффитс. Выборка Гиббса в генеративной модели скрытого распределения Дирихле. Https://people.cs.umass.edu/~wallach/courses/s11/cmpsci791ss/readings/griffiths02gibbs.pdf

    Моделирование тем LDA: объяснение | Автор: Тайлер Долл

    Фотография Патрика Томассо на Unsplash

    Предыстория

    Тематическое моделирование - это процесс определения тем в наборе документов.Это может быть полезно для поисковых систем, автоматизации обслуживания клиентов и в любом другом случае, когда важно знать тематику документов. Есть несколько способов сделать это, но здесь я объясню один: Скрытое распределение Дирихле (LDA).

    Алгоритм

    LDA - это форма обучения без учителя, которая рассматривает документы как мешки слов (т. Е. Порядок не имеет значения). LDA сначала делает ключевое предположение: документ был создан путем выбора набора тем, а затем для каждой темы путем выбора набора слов.Теперь вы можете спросить: «Хорошо, а как он находит темы?» Ответ прост: он реконструирует этот процесс. Для этого он выполняет следующие действия для каждого документа m :

    1. Предположим, что существует k тем во всех документах
    2. Распределите эти k тем по всему документу m (это распределение известно как α и может быть симметричным или асимметричным, подробнее об этом позже), назначая каждому слову тему.
    3. Для каждого слова w в документе m предположим, что его тема неверна, но каждому второму слову назначена правильная тема.
    4. Вероятностно назначьте слово w теме на основе двух вещей:
      - какие темы в документе m
      -
      сколько раз слову w была назначена конкретная тема во всех документах (это распределение называется β , подробнее об этом позже)
    5. Повторите этот процесс несколько раз для каждого документа, и все готово!

    Сглаженный LDA модели

    из https://en.wikipedia.org/wiki/Latent_Dirichlet_allocation

    Выше показано так называемое схематическое изображение модели LDA, где:
    α - распределение тем по каждому документу,
    β - распределение слов по темам,
    θ - распределение тем для документа m,
    φ - распределение слов для темы k,
    z - тема для n -го слова в документе m , а
    w - конкретное слово

    Настройка модели

    На приведенной выше диаграмме модели пластины вы можете видеть, что w выделено серым цветом.Это потому, что это единственная наблюдаемая переменная в системе, в то время как остальные являются скрытыми. Из-за этого, чтобы настроить модель, есть несколько вещей, с которыми вы можете столкнуться, и ниже я сосредоточусь на двух.

    α - это матрица, в которой каждая строка представляет собой документ, а каждый столбец представляет тему. Значение в строке i и столбце j показывает, насколько вероятно, что документ i содержит тему j . Симметричное распределение будет означать, что каждая тема равномерно распределена по всему документу, в то время как при асимметричном распределении одни темы предпочтительнее других.Это влияет на начальную точку модели и может использоваться, когда у вас есть приблизительное представление о том, как распределены темы для улучшения результатов.

    β - это матрица, в которой каждая строка представляет тему, а каждый столбец представляет слово. Значение в строке i и столбце j показывает, насколько вероятно, что тема i содержит слово j . Обычно каждое слово распределяется по теме равномерно, так что ни одна тема не связана с определенными словами. Тем не менее, это может быть использовано для смещения определенных тем в пользу определенных слов.Например, если вы знаете, что у вас есть тема о продуктах Apple, может быть полезно смещать такие слова, как «iphone» и «ipad», для одной из тем, чтобы подтолкнуть модель к поиску этой конкретной темы.

    Заключение

    Эта статья не предназначена для полноценного руководства по LDA, а скорее для того, чтобы дать обзор того, как работают модели LDA и как их использовать. Есть много реализаций, таких как Gensim, которые просты в использовании и очень эффективны. Хорошее руководство по использованию библиотеки Gensim для моделирования LDA можно найти здесь.

    Есть какие-нибудь мысли или найти что-то, что я пропустил? Дай мне знать!

    Удачного тематического моделирования!

    Тематическое моделирование - Amazon Comprehend

    Amazon Comprehend можно использовать для проверки содержимого коллекции документов. определить общие темы. Например, вы можете дайте Amazon Comprehend сборник новостных статей, и он определит тематику, Такие как спорт, политика или развлечения.Текст в документах не обязательно аннотированный.

    Amazon Comprehend использует модель обучения на основе скрытого распределения Дирихле для определения тем в комплект документов. Он исследует каждый документ, чтобы определить контекст и значение. из слово. Набор слов, которые часто принадлежат одному контексту во всем набор документов составляет тему.

    Слово связано с темой в документе в зависимости от того, насколько распространена эта тема. в документ и насколько тема близка к слову. То же слово может быть связаны с разными темами в разных документах в зависимости от распределения тем в конкретном документе.

    Например, слово «глюкоза» в статье, посвященной преимущественно спорту. можно отнести к теме «спорт», а то же слово в статье о «медицина» будет отнесена к теме «медицина».

    Каждому слову, связанному с темой, присваивается вес, который показывает, насколько слово помогает определить тему.Вес - это показатель того, сколько раз встречается слово в тема по сравнению с другими словами в теме во всем наборе документов.

    Для получения наиболее точных результатов предоставьте Amazon Comprehend самый крупный возможно корпус для работы. Для лучших результатов:

    • Вы должны использовать не менее 1000 документов в каждой работе по тематическому моделированию.

    • Каждый документ должен состоять не менее чем из 3 предложений.

    • Если документ состоит в основном из числовых данных, вы должны удалить его из корпус.

    Тематическое моделирование - это асинхронный процесс. Вы отправляете свой список документов в Amazon Постигать из корзины Amazon S3 с помощью операции StartTopicsDetectionJob. Ответ отправляется Ведро Amazon S3.Вы можете настроить как входные, так и выходные сегменты. Получить список из задания по тематическому моделированию, которые вы отправили с помощью ListTopicsDetectionJobs и просматривать информацию о задании с помощью операции DescribeTopicsDetectionJob. Контент, доставляемый в корзины Amazon S3, может содержать клиентский контент. Для получения дополнительной информации об удалении конфиденциальных данных см. Как опорожнить ведро S3? или как удалить корзину S3 ?.

    Документы должны быть в текстовых файлах в формате UTF-8. Вы можете подать документы двумя способами. В следующей таблице показаны варианты.

    Формат Описание
    Один документ на файл Каждый файл содержит один входной документ.Это лучше всего для коллекций больших документов.
    Один документ в строке

    Входные данные - один файл. Каждая строка в файле считается документ.Это лучше всего подходит для коротких документов, например для социальных сетей. проводки.

    Каждая строка должна заканчиваться переводом строки (LF, \ n), возвратом каретки (CR, \ r) или оба (CRLF, \ r \ n). Разделитель строк Unicode (u + 2028) нельзя использовать для завершения строки.

    Для получения дополнительной информации см. Тип данных InputDataConfig.

    После обработки вашей коллекции документов Amazon Comprehend возвращает сжатый архив содержащий два файла, тем-терминов.csv и doc-themes.csv . Для получения дополнительной информации о выходном файле см. OutputDataConfig.

    Первый выходной файл, topic-terms.csv , представляет собой список тем в Коллекция. Для каждой темы список по умолчанию включает самые популярные термины по темам. согласно их весу.Например, если вы дадите Amazon Comprehend коллекцию газеты статьях, он может вернуть следующее, чтобы описать первые две темы в коллекция:

    Тема Срок Масса
    000 команда 0.118533
    000 игра 0,106072
    000 игрок 0.031625
    000 сезон 0,023633
    000 играть 0.021118
    000 двор 0,024454
    000 тренер 0.016012
    000 игр 0,016191
    000 футбол 0.015049
    000 защитник 0,014239
    001 чашка 0.205236
    001 еда 0,040686
    001 минут 0.036062
    001 добавить 0,029697
    001 столовая ложка 0.028789
    001 масло 0,021254
    001 перец 0.022205
    001 чайная ложка 0,020040
    001 вино 0.016588
    001 сахар 0,015101

    Веса представляют собой распределение вероятностей для слов в данной теме.Поскольку Amazon Comprehend возвращает только 10 самых популярных слов по каждой теме, веса не будут сумма к 1.0. В редких случаях, когда в теме меньше 10 слов, веса будут сумма к 1.0.

    Слова сортируются по их различающей способности, глядя на их появление по всем темам.Обычно это то же самое, что и их вес, но в некоторых случаях такой как слова "играть" и "двор" в таблице, это приводит к порядку, который не в такой же, как и вес.

    Вы можете указать количество возвращаемых тем. Например, если вы спросите Amazon Comprehend к вернуть 25 тем, он возвращает 25 самых известных тем в коллекции.Амазонка Понять может обнаруживать до 100 тем в коллекции. Выберите количество тем в зависимости от вашего знание предметной области. Может потребоваться некоторое экспериментирование, чтобы прийти к правильному номер.

    Во втором файле, doc-themes.csv , перечислены связанные документы с темой и пропорцией документа, которая связана с этой темой.если ты указано ONE_DOC_PER_FILE документ идентифицируется по имени файла. Если вы указали ONE_DOC_PER_LINE документ идентифицируется по имени файла и номер строки с нулевым индексом в файле. Например, Amazon Comprehend может вернуть следующее для набора документов, представленных с одним документом на файл:

    Документ Тема Доля
    образец-doc1 000 0.999330137
    образец-doc2 000 0,998532187
    образец-doc3 000 0.998384574
    ...
    образец документа 000 3.57E-04

    Amazon Comprehend использует информацию из набора данных «Списки лемматизации », MBM , который доступен здесь под Лицензия открытой базы данных (ODbL) v1.0.

    Модели как предмет исследования

    Говорят, что до Платона математика была лишь средством решения практических задач.Сам Платон, однако, определил математику как чистый предмет исследования, заметив, что красота математических теорий имеет глубокую внутреннюю ценность, которую необходимо развивать и совершенствовать независимо от практического применения. Это породило математику как область исследований, которая в результате привела к большему количеству практических приложений.

    Информатика имеет гораздо более молодую историю. Некоторые ранние подходы к программированию общего назначения (например, механический универсальный компьютер Чарльза Бэббиджа в 1800-х годах, аналитическая машина и первые алгоритмы Ады Лавлейс) являются наиболее известными примерами.Однако информатика (или, лучше сказать, информатика) действительно появилась в двадцатом веке. Информатика зародилась как инструмент, помогающий в других научных и математических исследованиях. Когда стала очевидна возрастающая сложность, информатика стала объектом собственных исследований с прекрасными результатами в различных подобластях.

    Моделирование, однако, намного старше. Концептуальные модели вездесущи в философии, физике, химии и многих других исследовательских дисциплинах. Физические воплощения моделей часто использовались при строительстве зданий.Термин «модель» имел раннюю историческую связь со строительством церквей, где модель представляла собой уменьшенную деревянную версию церкви, которая должна была быть построена в масштабе 1:10. От великого изобретателя Да Винчи у нас до сих пор есть много рисунков, на которых моделируются удивительные и умные машины, хотя многие из них так и не были построены. Авторы этой редакционной статьи, однако, не осознавали, что тема моделирования как отдельная тема или область исследований в эти более ранние века.

    Концепция модели требовала большей формализации, когда требовалась конкретная семантика, например моделирование систем и программного обеспечения.Наиболее широко используемое определение «модель» было предложено Стаховяком только в 1973 году. Для определений теории программирования и семантики требовалось четко определенное понятие хорошо сформированного фрагмента кода. Это понятие также перенесено на другие формы моделей с цифровой связью. Сюда входят сети Петри в их различных формах, автоматы и диаграммы состояний, диаграммы классов, языки действий и другие формы языков моделирования. Область формальных методов (включая логику) и область языка программирования (в частности, построение компиляторов) в информатике были первыми, кто сосредоточил внимание на ценности моделей и явно определенных языках моделирования.Инженеры-программисты и администраторы баз данных также полагались на модели в различных представлениях, уделяя особое внимание практическому использованию ограниченных форм моделей. Интересно, что инструменты моделирования были основным продуктом, предлагаемым коммерческими поставщиками с самого начала индустрии программного обеспечения. Фактически, первым программным продуктом, продаваемым независимо от аппаратного пакета, был Autoflow - инструмент моделирования блок-схем, разработанный в 1964 году Мартином Гетцем из Applied Data Research.

    Использование моделей широко обсуждалось в области разработки программного обеспечения в течение 1980-х и 1990-х годов, когда было задействовано множество различных языков моделирования (например.g., облака Буча и объектные модели Рамбо). Примерно в 1994 году совпадение общих концепций в разных языках моделирования указывало на необходимость унификации разных языков. «Войны методов», которые интенсивно обсуждались на конференциях OOPSLA в 1990-е годы, наконец разрешились в рамках усилий по стандартизации, сначала названных «Унифицированный метод», а затем приведших к «Унифицированному языку моделирования» (UML). В этот решающий период объединения стало ясно, что определение такого стандарта будет непростой задачей.Возникло исследовательское сообщество, которое заинтересовалось изучением моделей и UML как самостоятельной основной предметной области.

    В 1998 году Жан Безивин и Пьер-Ален Мюллер организовали первый семинар по UML «Единый язык моделирования. «UML» '98: Beyond the Notation »в Мюлузе, Франция, 3–4 июня 1998 г. Основываясь на успехе научного мероприятия и очевидной потребности в дальнейшем обсуждении и исследовании, Роберт Франс и Бернхард Румпе (создатели-основатели SoSyM (после того, как Жан Безивен выступил с идеей) организовал последующее мероприятие «UML» '99 - Единый язык моделирования.Beyond the Standard »как первая международная конференция, посвященная моделированию программного обеспечения, состоявшаяся в Форт-Коллинзе, штат Колорадо (США), 28–30 октября 1999 г. Некоторые общие вопросы, которые обсуждались в этот зарождающийся период исследований в области моделирования, включали:

    • Что такое хороший язык моделирования UML?

    • Концентрация на основных модельных конструкциях или продуманный комфорт в UML?

    • Как интегрировать ортогональные подъязыки?

    • Семантика подъязыков UML?

    • Как составлять, уточнять и переводить модели UML?

    • Как создать надежный инструментарий для UML со степенью автоматизации?

    • Как преподавать UML?

    • Какие подходящие методы используют UML?

    • Как использовать UML для моделирования вариативности, компонентов или фреймворков?

    • Как улучшить стандартное разрешение?

    В 2005 году серия конференций по UML была расширена до общего вопроса о том, что определяет хороший язык моделирования.Основное внимание оставалось на разработке программного обеспечения, но поскольку программное обеспечение обычно внедряется в социальный, технический или деловой контекст, различные области внутри и связанные с информатикой были более глубоко вовлечены. Поэтому конференция 2005 г. была переименована в «Языки и системы проектирования на основе моделей» с использованием аббревиатуры «MoDELS / UML» и проводилась в Монтего-Бей, Ямайка, в октябре 2005 г. Вышеупомянутые вопросы обсуждались не только для стандарта UML. , который в то время стал относительно стабильным (и неполным с точки зрения практического применения, поскольку многие существующие инструменты UML лишь частично удовлетворяли потребности многих пользователей).Изменение названия конференции MODELS также признало появление предметно-ориентированных языков моделирования (DSML), которые не были специально привязаны к UML. Повышенный интерес к DSML помог привлечь внимание к новым исследованиям в области определения и семантики языка, а также использования и разработки таких языков (например, для тестирования, синтеза кода, моделирования и преобразования артефактов).

    Во многих недавних публикациях моделирование используется как вклад в конкретную область приложения, но большая часть исследовательской литературы по моделированию также концентрируется на моделировании языков как на основном предмете исследования (а не просто как средство изучения чего-то еще).Как следствие, за последнее десятилетие появилось много новых конференций, посвященных темам моделирования, которые были организованы SoSyM как специальные выпуски (например, ECMFA, ICMT и серия семинаров по DSM). Мы можем с уверенностью заявить, что с первых дискуссий по UML в OOPSLA в 1990-х годах и начала серии конференций MoDELS / UML, модели и языки моделирования стали предметом самостоятельного изучения, в результате чего были получены сотни докторских степеней . диссертации по всему миру. Возникшее внимание уделяется внедрению результатов исследований на практике путем создания надежных промышленных и надежных инструментов коммерческого моделирования.

    Не менее важно понимать, какие модели, обозначенные в явных и целенаправленных языках моделирования, могут сделать для инженеров или ученых помимо чистой разработки программного обеспечения. Пришло время понять, как цифровые модели информатики могут быть объединены с непрерывным исчислением теории управления, геометрическими моделями машиностроения и как использовать поведенческое моделирование с неопределенностью, недостаточной спецификацией, вариантами и широкими возможностями настройки моделей во время выполнения. . Физические и химические законы можно рассматривать как модели мира, а программное обеспечение, управляющее какой-то его частью, требует комплексного понимания.

    За несколько десятилетий существования исследовательскому сообществу по моделированию предстоит еще многое сделать. Вот почему мы ожидаем, что SoSyM будет развиваться дальше и станет и останется основным местом публикации статей, посвященных моделированию и языкам моделирования - как более формальным, так и прикладным с технологической направленностью. Мы с нетерпением ждем поступления в SoSyM захватывающих исследований!

    Содержание этого выпуска

    Этот выпуск содержит мнение эксперта и 12 регулярных статей, а именно:

    • Голос эксперта

      • «Содержание сводов знаний по разработке программного обеспечения на основе моделей» Антонио Валлесилло, Лоли Бургеньо, Федерико Чиккоцци, Михалис Фамелис, Герти Каппель, Лин Ламберс, Себастьян Моссер, Ричард Фриман Пейдж, Альфонсо Пьерантонио, Аренд Ренсинкри, Рик Салай, Рик Салай Тэнцер и Мануэль Виммер.

    • Обычная бумага

      • «Многовидовые подходы к моделированию программного обеспечения и систем: систематический обзор литературы» Антонио Чиккетти, Федерико Чиккоцци и Альфонсо Пьерантонио.

      • «BPMN с улучшенной конфиденциальностью: анализ конфиденциальности данных в моделях бизнес-процессов» Пилле Пуллонен, Джейк Том, Раймундас Матулявичюс и Айво Тоотс.

      • «Анализ компромиссов для моделей SysML с использованием точек принятия решения и CSP» Патрика Лезерфа, Пьера де Саки-Саннеса и Джерома Хьюга.

      • «Сравнительное исследование студентов и профессионалов в экспериментах с пониманием синтаксической модели» Мохаммед Эль-Аттар.

      • «Моделирование спецификаций соответствия в линейной временной логике, языке обработки событий и шаблонах спецификации свойств: управляемый эксперимент по понятности» Кристофа Чепа, Амирали Амири, Эвангелоса Нтентоса и Уве Здуна.

      • «Интегрированный контроль версий и изменений для развивающихся линеек программных продуктов на основе моделей» Феликса Швагерла и Бернхарда Вестфехтеля.

      • «Улучшение ручных проверок в функционально-ориентированном проектировании встроенных систем с использованием специальной модели проверки» Мариан Даун, Торстен Вейер и Клаус Поль.

      • «Отслеживание исполнения модели: систематическое картографическое исследование» Фазилат Ходжаджи, Таня Майерхофер, Бахман Замани, Абдельвахаб Хаму-Лхадж и Эрван Бус.

      • «ChronoSphere: хранилище моделей EMF на основе графов для моделей ландшафта ИТ» Мартина Хауслера, Томаса Тройера, Йоханнеса Кесслера, Маттиаса Фарвика, Эммануэля Новаковски и Рут Бреу.

      • «Расширенная поддержка обмена программным обеспечением и системными моделями» Каталины Льядо и Конни Смит.

      • «Подход к локализации ошибок в моделях, использующих два уровня: модель и метамодель», авторы Лорена Арсега, Хайме Фонт, Ойстейн Хауген и Карлос Четина.

      • «Профиль UML для проектирования, оценки качества и развертывания приложений с интенсивным использованием данных» Диего Перес-Паласин, Хосе Мерсегер, Хосе Рекено, Микеле Герриеро, Элизабетта Ди Нитто и Дамиан Тамбурри.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *