Здравствуйте, уважаемые читатели блога сайт! Сегодня хочу вас проинформировать о том, что специалисты Megaindex (полный и подробный обзор этого онлайн сервиса комплексной раскрутки сайтов ожидает вас в одной из последующих статей) внедрили новый чрезвычайно полезный инструмент.
Речь идет о возможности быстрого анализа сниппетов, соответствующих определенным поисковым запросам (в о видах ПЗ Яндекса и Гугла подробности), по которым вы продвигаете те или иные страницы своего вебсайта в поисковых системах.
Эта очень важная информация, поскольку позволяет понять, надо ли предпринимать определенные действия, чтобы максимально уменьшить показатель отказов (одна из ), который играют одну из главных ролей в сегодняшней оптимизации и SEO продвижении.
На блоге есть публикация, где я описывал, например, влияние содержания мета тега Description (краткое описание к статье, которое вы создаете при публикации очередного материала) на формирование сниппетов в органической выдаче Яндекса и Google. Если вы пока не совсем понимаете о чем речь, советую обязательно перейти по и восполнить пробел.
Прежде чем переходить к описанию работы нового инструмента MegaIndex, напомню, что сниппет включает в себя заголовок, краткое описание страницы, занимающей определенное место в поисковой выдаче, и ссылку на нее. Вот пример сниппета на странице результатов поиска Yandex по соответствующему поисковому запросу:
Как понимаете, чем содержательнее snippet, тем более эффективным он будет. В том смысле, что пользователь сразу сможет оценить, осуществлять переход на выбранную страницу или нет. Ведь если он перейдет и быстро покинет вебстраницу, то только увеличит число отказов, что не есть хорошо.
Особенную ценность этот инструмент приобретает у владельцев коммерческих проектов. Улучшение поведенческих факторов в этом случае означает удержание клиентов на вебсайте и, соответственно, увеличение продаж, что неминуемо ведет к повышению дохода.
Если вы ознакомились с содержанием выше расположенного скриншота, то уже уразумели, что, кроме всего прочего, инструмент анализа сниппетов позволяет оптимизаторам контролировать запросы, по которым вебресурс находится в пределах видимости.
Итак, для того, чтобы проверить свои сниппеты, следует перейти на страницу бесплатного анализа Мегаиндекс и ввести в простую форму доменное имя своего проекта, а затем последовательно регион, город и название поисковой системы (Yandex или Google):
Здесь я должен уточнить, что список городов предлагается в основном для коммерческих ресурсов, поскольку их ключи большей частью привязаны не только к широким регионам, но и к населенным пунктам (к слову, есть обещание в дальнейшем значительно расширить этот перечень).
Для стандартных информационных ресурсов вполне допустимо вписать Москву (город обязательно нужно выбрать, иначе скрипт не сработает). Спустя минуту после нажатия кнопки «Поиск» вы уже получите результаты, где будут представлены ваши сниппеты, находящиеся в выдаче Яндекса, запросы, которым они соответствует, и количество эффективных показов:
Теперь любой сниппет Яндекс можно подвергнуть анализу. Надо понимать, что полное содержание сниппетов трудно контролировать, поскольку текст (описание) роботы поисковых систем зачастую вставляют по своему разумению, то есть тот, который по их мнению является наиболее релевантным.
Однако, это большей частью относится к Яндексу, который чаще всего берет просто фрагменты текста из публикации с вкраплениями ключевых слов. В отношении Гугла все проще, поскольку его поисковая машина забирает обычно текст из описания (дескрипшн), которое вы составляете сами. О возможности влияния на содержание сниппетов подробнее вы можете почитать из материала, который я порекомендовал в самом начале настоящей статьи.
Ранее маркетологи и оптимизаторы сталкивались со значительными трудностями при анализе сниппетов, а это важнейшая часть продвижения вебресурсов. Ведь необходимо знать, по какому запросу нашел пользователь ту или иную страницу, что он лицезрел в качестве содержания snippet и соответствует ли это поставленным целям. Поисковые системы крайне неохотно предоставляют подобную информацию.
После ввода в строй инструмента анализа сниппетов это больше не является проблемой. Кроме того, вы получаете просто колоссальную экономию времени. Ведь данные по сниппетам Яндекса и Гугла появляются спустя считанные минуты после активации онлайн инструмента.
Обратимся вновь к предыдущему скриншоту. После получения результатов в левой колонке будут даны сниппеты Yandex, а в средней первые три запроса (если их больше), по которым они показываются. Ежели теперь щелкнуть по зеленой пиктограмме, то вылезет отдельное окно, в котором будет показана детализация (общее число ПЗ в месяц, позиции по ним и эффективность показов):
В правой колонке отображается сумма эффективных показов в Яндексе по всем запросам для каждого сниппета. Эффективность показов связана с видимостью сайта (которая, в свою очередь, прямо пропорциональна позициям в выдаче):
По аналогии с выше описанными действиями вы анализируете сниппеты Гугл. Зная количество показов по тем или иным ключевикам, вы сможете улучшить оптимизацию нужной страницы, на которую ведет определенный snippet. Для наиболее перспективных запросов есть возможность таким образом удержать посетителя на странице, а для коммерческих ресурсов сохранить покупателя.
Продвижение порталов и интернет-магазинов Гроховский Леонид О.
Сниппеты
Парсинг сниппетов по всем запросам «Яндекса» и Google. Сниппеты оказывают существенное влияние на конверсию сайтов в выдаче. Это подтверждено исследованиями, проводимыми компанией «Яндекс».
Следует по всем запросам спарсить сниппеты «Яндекса» и Google (сервис A-Parser).
Анализ сниппетов в Google.
Отзывы по микроформату hReview;
Содержимое сайтов (по микроформатам hProduct и GoodRelations);
Мероприятия (по микроформату hCalendar);
Адрес (по микроформату hCard);
Хлебные крошки (по микроформату Breadcrumb);
Описание (текст страницы, Description, описание в каталоге DMOZ).
Анализ сниппетов в «Яндексе». Необходимо выделить каждую часть сниппета и проверить, что корректно формируются:
Логическая структура и ключевые слова в URL;
Регистр букв в домене;
Значок (файл favicon.ico);
Заголовок сниппета (Title, H1 – Н6, STRONG, В, UL, LI, «Яндекс.Каталог», DMOZ, Description);
Содержимое сайтов (микроразметка hCard, hRecipe, hReview, hProduct);
Регион («Яндекс.Адреса», «Яндекс.Каталог»);
Адрес («Яндекс.Адреса»);
Хлебные крошки (хлебные крошки, ЧПУ);
Описание (текст страницы, Description, «Яндекс.Каталог», анкор-лист);
По каждому пункту необходимо зафиксировать, корректно ли формируется сниппет и существуют ли возможности для улучшения.
Изучение областей, откуда берется описание. Для того чтобы влиять на содержание описания, необходимо понять, откуда оно берется и по какому алгоритму. Для этого нужно собрать информацию по всем источникам данных, используемых поисковыми системами при формировании сниппетов:
Парсинг Description (A-Parser, «СайтРепорт»);
Парсинг («Яндекс.Каталог», DMOZ (можно вручную));
Сбор анкоров (ранее собраны через «Яндекс.Вебмастер», Ahrefs, выгрузки бирж);
Парсинг , , ,
,
,
,
,
, Title (модуль Page Auditor в «СайтРепорт»);
Парсинг текста страниц (A-Parser может собрать сохраненные текстовые копии);
Сравнение данных о сниппетах с данными об источниках.
Ссылочная масса
Получение ссылок из различных источников. Необходимо собрать ссылки из всех источников:
? «Яндекс.Вебмастер»;
Ahrefs, MajesticSEO, Solomono;
Выгрузка с бирж и агрегаторов.
Количество исходящих ссылок со страницы;
Возраст;
Наличие сайта в «Яндекс.Каталоге»;
Наличие сайта DMOZ;
Количество входящих ссылок на сайт;
Количество исходящих ссылок с сайта;
Трафик сайта;
Количество страниц сайта в индексе «Яндекса»;
Количество страниц сайта в индексе Google.
Анализ динамики изменения ссылочной массы. Необходимо изучить динамику изменений ссылочной массы с помощью:
Проверка индексации страниц-доноров. Далеко не все размещенные ссылки попадают в индекс поисковых систем. Некоторые ссылки могут стоять несколько лет, прежде чем SEO-специалист узнает, что их до сих пор нет в индексе. Необходимы:
После покупки – проверка индексации страниц (вручную кэш в «Яндексе», плагин wink);
При покупке – изучение индексации похожих страниц сайта, размещенных ранее.
Сбор анкор-листа. Тексты ссылок участвуют в ссылочном ранжировании. Необходимо собрать всю доступную информацию об анкорах:
Внутренний анкор-лист – с помощью «СайтРепорт» (Проект-Отчет по загрузке-Коллектор анкоров);
Внешний анкор-лист – с помощью Ahrefs, Solomono, MajesticSEO.
Проанализировать по матрице по одной популярной странице каждого типа.
Анализ ссылочной массы на атаки конкурентов. Иногда приходится сталкиваться с недобросовестными конкурентами. Чтобы минимизировать ущерб от них, выполняем следующие проверки:
Поиск ссылочных взрывов (с помощью MajesticSEO, Ahrefs);
Поиск спамных ссылок (с помощью Excel по выгрузкам);
Поиск спамных анкоров (с помощью Excel по выгрузкам);
Поиск ссылок с бирж, которых нет на аккаунтах компании.
«Шеф-редактор блога GetGoodRank, веб-аналитик, блоггер.
Сниппет является одним из основных элементов управления вниманием ползователей в поисковой выдаче. Сегодня рассмативаем 7 бесплатных способов улучшения сниппета»
Сниппет не влияет на ранжирование, однако качественно составленный сниппет повышает конверсию в разы. И хотя сниппет является автономной единицей (не поддающейся прямой редакции вебмастером), повлиять на него можно. В данном обзоре мы расскажем о 7 способах получить качественный сниппет.
Ни одна система управления сайтом, система аналитики сайта не показывает сниппет как отдельный элемент. Сниппет генерируется поисковой системой автоматически на основании информации страницы и предоставленных оптимизатором данных о ней в системах Яндекс Вебмастер, Google Webmaster.
Мы предлагаем вам оценить сниппет с точки зрения его эффективности для повышения конверсии и улучшения поведенческих факторов. Именно поэтому надо «увидеть» сниппет глазами пользователей.
Основным методом проверки сниппета является анализ поисковой выдачи по ключевому запросу. Напомним, что анализировать сниппет необходимо не изолировано, а в соотношении с конкурентными сайтами.
Сегодня мы поговорим о практических способах повысить эффективность сниппета до максимума.
Пользователь оценивает сниппет как небольшой рекламный текст, который призван донести основную идею в одном-двух предложениях. Проверьте сниппет по следующим критериям:
Навигационные цепочки - отличная возможность преодолеть недопонимания пользователей, поисковой выдачи и вашего сайта. Если по запросу пользователя поисковая система выдает в результатах страницу сайта, не полностью соответствующую запросу, то навигационная цепочка обеспечит моментальное решение проблемы и поможет пользователю перейти на нужную страницу вашего сайта, а не уйти за ответом к конкурентам.
Для того, чтобы поисковые системы отображали навигационную цепочку в результатах выдачи, сайт должен соответствовать следующим критериям:
Наблюдения вебмастеров показывают, что сайт должен соответствовать следующим требованиям:
Поисковые системы приветствуют регистрацию сайтов во всевозможных сервисах, получая таким образом дополнительную информацию о сайтах. Это выгодно и для самих сайтов. К примеру, регистрация в сервисах Яндекса позволит существенно расширить и улучшить сниппет. Более того, участники сервисов могут пользоваться дополнительными преимуществами.
Яндекс.Справочник передаст сниппету данные о компании и адрес, а для некоторых компаний Яндекс предлагает дополнительные кнопки прямо в поиске. К примеру, кнопка «Записаться» выводится рядом с кнопкой «Адрес на карте» для ряда стоматологических клиник.
Запись доступна для компаний, заключивших соглашение о сотрудничестве с партнерами Яндекс.
Для интернет-магазинов актуальна регистрация в Яндекс.Маркете - это позволит не только охватить большую целевую аудиторию, получив дополнительный канал трафика, но и улучшить сниппет. Данные о товарах в Яндекс.Маркете будут напрямую транслироваться в результатах поиска.
Также в Яндекс доступны различные партнерские программы:
Микроразметка является ключевым способом расширения сниппета. Для более четкого понимания значения микроразметки, предлагаем следующее видео:
Любые изменения вступают в силу только после переиндексации страницы поисковым роботом. Если вы внесли изменения в Title или Description страницы, то изменение сниппета в выдаче произойдет не моментально.
Для ускорения процесса переиндексации можно воспользоваться популярной социальной сетью Twitter, опубликовав ссылку на измененную страницу в своем аккаунте данной соцплощадки. Twitter является наиболее быстро реиндексируемой в рунете, а так, публикуя ссылку на исправленную страницу, вы ускоряете процесс ее перенидексации и изменения сниппета в поисковой выдаче.
Для качественного сниппета важна информация, содержащаяся как в основных тегах страницы Title и Description, так и на самой странице. Проверка адекватности материалов является первостепенной задачей вебмастера.
Шаблонный сниппет неэффективен. Необходимо использовать все каналы воздействия на данный элемент максимально эффективно.
Микроразметка Schema.org имеет огромное значение для генерирования правильного сниппета.
Анализ неявных предпочтений пользователей, выраженных в переходах по ссылкам и длительности просмотра страниц, - важнейший фактор в ранжировании документов в результатах поиска или, например, показе рекламы и рекомендации новостей. Алгоритмы анализа кликов хорошо изучены. Но можно ли узнать что-то ещё об индивидуальных предпочтениях человека, используя больше информации о его поведении на сайте? Оказывается, траектория движения мыши позволяет узнать, какие фрагменты просматриваемого документа заинтересовали пользователя.
Этому вопросу и было посвящено исследование, проведенное мной, Михаилом Агеевым , совместно с Дмитрием Лагуном и Евгением Агиштейном в Emory Intelligent Information Access Lab Университета Эмори.
Общий принцип состоит в том, что текст запроса сопоставляется с текстом документа, в котором выделяются наиболее релевантные предложения, содержащие слова запроса или расширения запроса. Формула вычисления наиболее релевантных фрагментов учитывает совпадения с запросом. Учитывается плотность текста, местоположение текста, структура документа. Однако для высокорелевантных документов, которые всплывают в верхней части поисковой выдачи, текстовых факторов зачастую недостаточно. В тексте могут многократно встречаться слова из запроса, и определить, какие фрагменты текста отвечают на вопрос пользователя на основе только текстовой информации невозможно. Поэтому требуется привлечение дополнительных факторов.
При просмотре страницы внимание пользователя распространяется неравномерно. Основное внимание уделяется тем фрагментам, которые содержат искомую информацию.
Мы провели эксперименты с применением оборудования, отслеживающего движения глазного зрачка с точностью до нескольких десятков пикселей. Вот пример распределения тепловой карты траектории зрачка пользователя, искавшего ответ на вопрос, сколько битых пикселей должно быть на iPad 3, чтобы его можно было заменить по гарантии. Он вводит запрос , который приводит его на страницу Apple Community Forums с подобным вопросом. На странице слова из запроса встречаются многократно, однако пользователь заостряет внимание на том фрагменте, который действительно содержит ответ, что и видно на тепловой карте.
Если бы мы могли отслеживать и анализировать движения зрачков большего количества пользователей, мы могли бы только на основании этих данных выделять идеальные сниппеты для различных запросов. Проблема заключается в том, что у пользователей не установлены средства для айтрекинга, поэтому нужно искать другие пути получения необходимой информации.
При просмотре веб-документов пользователи обычно совершают движения мышью, скроллят страницы. В своей статье 2010 года К. Гуо и Е. Агиштейн отмечают, что по траектории можно предсказывать движения глазного зрачка с точностью 150 пикселей и полнотой 70%.
Ниже представлена тепловая карта движений мыши при просмотре документа, найденного по запросу . Видно, что наибольшая активность прослеживается именно на фрагменте, содержащем информацию о самых сильных засухах в США, именно из него можно сформировать идеальный сниппет.
Идея нашего исследования состоит в том, что данные о движениях мыши можно собирать при помощи JavaScript API, работающего в большинстве браузеров. По поведению пользователей мы можем предсказывать, какие фрагменты содержат релевантную запросу информацию, и затем использовать эти данные для улучшения качества сниппетов. Для того, чтобы реализовать и проверить эту идею, нужно решить несколько задач. Во-первых, нужно понять, как собрать реалистичные и достаточно масштабные данные о поведении пользователей за страницей результатов поиска. Во-вторых, нужно научиться по движениям мыши определять наиболее заинтересовавшие пользователя фрагменты. У пользователей есть разные привычки: некоторые любят выделять читаемый текст или просто наводят на него мышь, другие же открывают документ и читают его сверху вниз, изредка пролистывая его вниз. При этом у пользователей могут быть разные браузеры и устройства ввода. Кроме того, объем данных о движениях мыши на два порядка выше объема данных о кликах. Также стоит задача объединения поведенческих факторов с традиционными текстовыми.
При помощи стандартных модулей для HTTP-сервера Apache mod_proxy_html и mod_sed мы реализовали проксирование всех обращений к поисковым сервисам. Пользователь заходил на нашу страницу, видел привычный интерфейс поисковика, но все ссылки там были заменены на наши. Переходя по такой ссылке, пользователь попадал на нужную страницу, но в нее уже был встроен наш JavaScript-код, отслеживающий поведение.
При протоколировании возникает небольшая проблема: позиция мыши представлена координатами в окне браузера, а координаты текста в нем зависят от разрешения экрана, версии и настроек. Нам же нужна точная привязка именно к тексту. Соответственно, нам нужно вычислять координаты каждого слова на клиенте и хранить эту информацию на сервере.
Результатом проведенных экспериментов стали следующие данные:
С точки зрения статистики данные выглядят следующим образом:
Код и собранные данные свободно доступны по этой ссылке .
Первый эксперимент состоит в проверке адекватности нашей модели. Мы обучили алгоритм предсказания интересности фрагмента на одном множестве страниц и применяем к другому множеству. На графике по оси x показана предсказанная вероятность интересности фрагмента, а по оси y – среднее значение меры пересечения фрагмента с ответом пользователя:
Мы видим, что если алгоритм в большой степени уверен, что фрагмент хороший, то этот фрагмент имеет большое пересечение с ответом пользователя.
При построении метода машинного обучения наиболее важными факторами оказались DispMiddleTime (время, в течение которого фрагмент текста был виден на экране) и MouseOverTime (время, в течение которого курсор мыши был над фрагментом текста).
Мы используем следующий набор текстовых факторов:
Нам нужно выбрать правильный вес λ. Тут есть две крайности: если значение λ слишком маленькое, то поведение не учитывается и сниппеты отличаются от baseline, если же значение λ слишком большое, есть риск, что мы потеряем в качестве сниппетов. Для выбора λ проводим эксперимент с выбором из пяти значений от нуля до единицы {0.1,0.3,0.5,0.7,0.9}. Для сравнения экспериментов мы набрали асессоров, которые попарно сопоставляли сниппеты по трем критериям:
Среди других применений метода можно отметить следующее:
После доклада состоялась сессия вопросов и ответов, посмотреть которую можно на
Анализ неявных предпочтений пользователей, выраженных в переходах по ссылкам и длительности просмотра страниц, - важнейший фактор в ранжировании документов в результатах поиска или, например, показе рекламы и рекомендации новостей. Алгоритмы анализа кликов хорошо изучены. Но можно ли узнать что-то ещё об индивидуальных предпочтениях человека, используя больше информации о его поведении на сайте? Оказывается, траектория движения мыши позволяет узнать, какие фрагменты просматриваемого документа заинтересовали пользователя.
Этому вопросу и было посвящено исследование, проведенное мной, Михаилом Агеевым , совместно с Дмитрием Лагуном и Евгением Агиштейном в Emory Intelligent Information Access Lab Университета Эмори.
Общий принцип состоит в том, что текст запроса сопоставляется с текстом документа, в котором выделяются наиболее релевантные предложения, содержащие слова запроса или расширения запроса. Формула вычисления наиболее релевантных фрагментов учитывает совпадения с запросом. Учитывается плотность текста, местоположение текста, структура документа. Однако для высокорелевантных документов, которые всплывают в верхней части поисковой выдачи, текстовых факторов зачастую недостаточно. В тексте могут многократно встречаться слова из запроса, и определить, какие фрагменты текста отвечают на вопрос пользователя на основе только текстовой информации невозможно. Поэтому требуется привлечение дополнительных факторов.
При просмотре страницы внимание пользователя распространяется неравномерно. Основное внимание уделяется тем фрагментам, которые содержат искомую информацию.
Мы провели эксперименты с применением оборудования, отслеживающего движения глазного зрачка с точностью до нескольких десятков пикселей. Вот пример распределения тепловой карты траектории зрачка пользователя, искавшего ответ на вопрос, сколько битых пикселей должно быть на iPad 3, чтобы его можно было заменить по гарантии. Он вводит запрос , который приводит его на страницу Apple Community Forums с подобным вопросом. На странице слова из запроса встречаются многократно, однако пользователь заостряет внимание на том фрагменте, который действительно содержит ответ, что и видно на тепловой карте.
Если бы мы могли отслеживать и анализировать движения зрачков большего количества пользователей, мы могли бы только на основании этих данных выделять идеальные сниппеты для различных запросов. Проблема заключается в том, что у пользователей не установлены средства для айтрекинга, поэтому нужно искать другие пути получения необходимой информации.
При просмотре веб-документов пользователи обычно совершают движения мышью, скроллят страницы. В своей статье 2010 года К. Гуо и Е. Агиштейн отмечают, что по траектории можно предсказывать движения глазного зрачка с точностью 150 пикселей и полнотой 70%.
Ниже представлена тепловая карта движений мыши при просмотре документа, найденного по запросу . Видно, что наибольшая активность прослеживается именно на фрагменте, содержащем информацию о самых сильных засухах в США, именно из него можно сформировать идеальный сниппет.
Идея нашего исследования состоит в том, что данные о движениях мыши можно собирать при помощи JavaScript API, работающего в большинстве браузеров. По поведению пользователей мы можем предсказывать, какие фрагменты содержат релевантную запросу информацию, и затем использовать эти данные для улучшения качества сниппетов. Для того, чтобы реализовать и проверить эту идею, нужно решить несколько задач. Во-первых, нужно понять, как собрать реалистичные и достаточно масштабные данные о поведении пользователей за страницей результатов поиска. Во-вторых, нужно научиться по движениям мыши определять наиболее заинтересовавшие пользователя фрагменты. У пользователей есть разные привычки: некоторые любят выделять читаемый текст или просто наводят на него мышь, другие же открывают документ и читают его сверху вниз, изредка пролистывая его вниз. При этом у пользователей могут быть разные браузеры и устройства ввода. Кроме того, объем данных о движениях мыши на два порядка выше объема данных о кликах. Также стоит задача объединения поведенческих факторов с традиционными текстовыми.
При помощи стандартных модулей для HTTP-сервера Apache mod_proxy_html и mod_sed мы реализовали проксирование всех обращений к поисковым сервисам. Пользователь заходил на нашу страницу, видел привычный интерфейс поисковика, но все ссылки там были заменены на наши. Переходя по такой ссылке, пользователь попадал на нужную страницу, но в нее уже был встроен наш JavaScript-код, отслеживающий поведение.
При протоколировании возникает небольшая проблема: позиция мыши представлена координатами в окне браузера, а координаты текста в нем зависят от разрешения экрана, версии и настроек. Нам же нужна точная привязка именно к тексту. Соответственно, нам нужно вычислять координаты каждого слова на клиенте и хранить эту информацию на сервере.
Результатом проведенных экспериментов стали следующие данные:
С точки зрения статистики данные выглядят следующим образом:
Код и собранные данные свободно доступны по этой ссылке .
Первый эксперимент состоит в проверке адекватности нашей модели. Мы обучили алгоритм предсказания интересности фрагмента на одном множестве страниц и применяем к другому множеству. На графике по оси x показана предсказанная вероятность интересности фрагмента, а по оси y – среднее значение меры пересечения фрагмента с ответом пользователя:
Мы видим, что если алгоритм в большой степени уверен, что фрагмент хороший, то этот фрагмент имеет большое пересечение с ответом пользователя.
При построении метода машинного обучения наиболее важными факторами оказались DispMiddleTime (время, в течение которого фрагмент текста был виден на экране) и MouseOverTime (время, в течение которого курсор мыши был над фрагментом текста).
Мы используем следующий набор текстовых факторов:
Нам нужно выбрать правильный вес λ. Тут есть две крайности: если значение λ слишком маленькое, то поведение не учитывается и сниппеты отличаются от baseline, если же значение λ слишком большое, есть риск, что мы потеряем в качестве сниппетов. Для выбора λ проводим эксперимент с выбором из пяти значений от нуля до единицы {0.1,0.3,0.5,0.7,0.9}. Для сравнения экспериментов мы набрали асессоров, которые попарно сопоставляли сниппеты по трем критериям:
Среди других применений метода можно отметить следующее:
После доклада состоялась сессия вопросов и ответов, посмотреть которую можно на