Решающее дерево: Деревья решений: общие принципы | Loginom

Содержание

Решающее дерево — Большая Энциклопедия Нефти и Газа, статья, страница 3

Решающее дерево

Cтраница 3

Решающие деревья более сложны для понимания, чем продукционные правила, что является их недостатком. С другой стороны, любое решающее дерево может быть преобразовано в набор продукционных правил: каждому пути от корня дерева до концевой вершины соответствует одно продукционное правило. Его посылкой является конъюнкция условий атрибут — значение, соответствующих пройденным вершинам и ребрам дерева, а заключением — имя класса, соответствующего концевой вершине.  [31]

Алгоритм ID5R строит решающее дерево инкрементно, модифицируя решающее дерево таким образом, чтобы наиболее информативный атрибут всегда проверялся первым. Хотя алгоритм сохраняет обучающие примеры в решающем дереве, они используются только в процессе изменения структуры дерева, а не обрабатываются каждый раз при добавлении нового примера.  [32]

Решающее дерево, простроенное этим алгоритмом, совпадает с решающим деревом, которое было бы построено с помощью алгоритма J. Инкрементная версия сохраняет предыдущий вариант дерева решений, а при добавлении новых примеров лишь перестраивает его. Алгоритм хранит достаточно информации, чтобы при появлении нового примера заново вычислить информативность каждого атрибута и перестроить дерево таким образом, чтобы наиболее информативный атрибут оказался в вершине дерева.  [33]

Алгоритм ID5R выглядит следующим образом. Он получает на входе решающее дерево и очередной обучающий пример и выдает обновленное решающее дерево.  [34]

Характерной чертой алгоритма / D3 является то, что для детерминированных ( без шума) входных данных примеры обучающего множества всегда классифицируются правильно. Когда алгоритм ID3 применяется к данным, которые могут содержать значения в некоторой степени случайным образом искаженные, например, в результате ошибок, измерения, результирующее

решающее дерево становится слишком большим и сильно ветвящимся. В этом случае предлагается построение решающего дерева разбить на три части. Сначала с помощью алгоритма / D3 или IDbR строится первоначальное большое дерево, затем это дерево подвергается упрощению с целью удаления ветвей с низкой статистической достоверностью. Последним этапом является обработка дерева для повышения его понятности.  [35]

Три формы представления решающего дерева соответствуют трем предложениям отношения решить. Поэтому все, что нам нужно сделать для изменения нашей исходной программы решить, — это подправить каждое из этих трех предложений, просто добавив в каждое из них решающее дерево в качестве второго аргумента. Измененная программа показана на рис. 13.8. В нее также введена дополнительная процедура отобр для отображения решающих деревьев в текстовой форме.  [36]

Мы получаем ответ да или нет, но не получаем решающее дерево. Можно было бы восстановить решающее дерево при помощи трассировки программы, но такой способ неудобен, да его и недостаточно, если мы хотим иметь возможность явно обратиться к решающему дереву как к объекту программы.  [37]

Теперь мы приступим к реализации нашей оболочки, следуя тем идеям, которые обсуждались в предыдущем разделе. Цель — это вопрос, подлежащий рассмотрению; Трасса — это цепочка, составленная из целей-предков и правил, находящихся между вершиной Цель и вопросом самого верхнего уровня; Ответ — решающее дерево типа И / ИЛИ для вершины Цель.  [39]

Это немного упрощает исследование дерева решения. Если

решающее дерево все же очень велико, вы можете, по крайней мере, найти приближенные решения, даже если они и не являются наилучшими.  [40]

Характерной чертой алгоритма / D3 является то, что для детерминированных ( без шума) входных данных примеры обучающего множества всегда классифицируются правильно. Когда алгоритм ID3 применяется к данным, которые могут содержать значения в некоторой степени случайным образом искаженные, например, в результате ошибок, измерения, результирующее решающее дерево становится слишком большим и сильно ветвящимся. В этом случае предлагается построение решающего дерева разбить на три части. Сначала с помощью алгоритма / D3 или IDbR строится первоначальное большое дерево, затем это дерево подвергается упрощению с целью удаления ветвей с низкой статистической достоверностью. Последним этапом является обработка дерева для повышения его понятности.  [41]

В результате процесс поиска не успевает осознать, что А — это тоже целевая вершина и что порождено решающее дерево. Вместо этого происходит переключение активности на конкурирующую альтернативу с. Теперь процесс поиска обнаруживает, что найдено решающее дерево ( включающее в себя целевые вершины h и g), на чем поиск заканчивается.  [42]

Таким образом, все позиции противника — это И-вершины. Целевые вершины — это позиции, выигранные согласно правилам игры, например позиции, в которых король противника получает мат. Позициям проигранным соответствуют задачи, не имеющие решения. Для того, чтобы решить игровую задачу, мы должны построить решающее дерево

, гарантирующее победу игрока независимо от ответов противника. Такое дерево задает полную стратегию достижения выигрыша: для каждого возможного продолжения, выбранного противником, в дереве стратегии есть ответный ход, приводящий к победе.  [44]

На любой стадии поиска каждый преемник ИЛИ-вершины соответствует некоторому альтернативному решающему дереву-кандидату. Процесс поиска всегда принимает решение продолжать просмотр того дерева-кандидата, для которого F-оценка минимальна. Вернемся еще раз к рис. 13.4 и посмотрим, как будет вести себя процесс, поиска на примере И / ИЛИ-графа, изображенного на этом рисунке. В начале дерево поиска состоит всего из одной вершины — стартовой вершины а, далее дерево постепенно растет до тех пор, пока не будет найдено решающее дерево. На рис. 13.10, показан ряд мгновенных снимков, сделанных в процессе роста дерева поиска. Для простоты мы предположим, что А 0 для всех вершин.  [45]

Страницы:      1    2    3    4

метод «белого ящика» в машинном обучении

Дерево решений — логическая схема, позволяющие получить окончательное решение о классификации объекта после ответов на иерархически организованную систему вопросов. Стоит сказать, большинство высоко результативных решений на Kaggle — комбинация XGboost-ов, одного из вариантов деревьев решений, и очень качественного фичер-инжиниринга.

Один уровень

Стоящая за деревьями решений идея проста. Представим датасет, созданный путем записи времени ухода из дома и времени прихода на работу. Анализируя эти данные, можно увидеть, что в большинстве случаев выход из дома раньше 8:15 приводит к своевременному прибытию на работу, а выход после 8:15 — к опозданию.

Теперь этот паттерн можно выразить через дерево решений. В самой первой точке разветвления следует задать вопрос: “Выход из дома осуществляется раньше 8:15?”. Теперь есть две ветви — “да” и “нет”. Для согласованности будем считать положительный ответ левой веткой. Вводя такую границу решения, мы разбиваем данные на две группы. Хотя в таком случаем есть некоторые исключения и сложности, общее правило — разделение по времени с границей 8:15. Если вы выходите до 8:15, можете быть уверены, что попадете на работу вовремя. В противном случае — будьте уверены, что опоздаете.

Это самое простое дерево решений, состоящее из одной пары ветвей.

Два уровня

Мы можем уточнить оценку пунктуальности с помощью разделения обеих ветвей. Если мы добавим дополнительные границы решений со значениями 8:00 и 8:30, можем получить более точное предсказание исхода.

Выход до 8:00 однозначно приведет к своевременному появлению на работе, тогда как с 8:00 до 8:15 — лишь к высокой вероятности прийти вовремя, но не к гарантии. Похожим образом ветвь с выходом после 8:15 делится на две ветви с решающим вопросом: “отправление до 8:30?”. Если ответ положительный, то есть большая вероятность опоздать, если же отрицательный —  вы гарантированно опоздаете.

Это дерево решений имеет уже два уровня. В общем случае, они могут иметь столько уровней, сколько вы захотите. В большинстве случаем каждый узел (решающий вопрос) имеет только две ветви.

Рассматриваемый пример использует только один фактор и одну целевую переменную, которую необходимо предсказать. Фактором выступает время отправления, а целевая переменная — приедем ли мы вовремя. Целевая переменная категориальная, так как она имеет только два различных значения. Деревья решений с категориальной целевой переменной называются классифицирующими деревьями.

Многомерное дерево решений

Можно расширить этот пример на случай нескольких предикторных переменных. Рассмотрим время выхода и день недели. Начнем собирать данные с понедельника (день 1), тогда суббота = 6, воскресенье = 7. Исследуя данные, можно видеть, что в субботу и воскресенье зеленые точки смещены в левую сторону. Это означает, выход в 8:10 является достаточным, чтобы успеть на работу вовремя в будний день, но не достаточным в выходные.

Чтобы отобразить этот факт в дереве решений, можем начать также, как и в первом примере, установив границу решений как 8:15. Выход после 8:15 скорее всего приведет к опозданию. Выход из дома до 8:15 — не показательный фактор, хотя ранее мы предполагали, что это гарантирует прибытие вовремя. Теперь мы видим по данным, что это не является полной правдой.

Чтобы сделать более точную оценку для выходных, разделим левую ветвь на выходные и будние дни. Теперь выход из дома до 8:15 в будний день гарантирует своевременное прибытие на работу. Для выходного дня в большинстве случаев это тоже вовремя, но не всегда. Мы обновили дерево решений с помощью узла, который отражает новую решающую границу.

Можно еще сильнее уточнить оценку разделением ветки с отправлением до 8:15 в выходной день на отправление до 8:00 и после. Отправление до 8:00 скорее всего приведет к своевременному появлению на работе, а в интервале с 8:00 до 8:15 к опозданию с большой вероятностью. Получилось двумерное дерево решений, аккуратно поделенное на 4 различных региона. Два из них соответствуют прибытию вовремя, два — опозданию.

Это трехуровневое дерево. Отметим, что не обязательно все ветки должны простираться на одинаковое количество уровней.

Регрессионное дерево решений

Рассмотрим случай с непрерывной целевой переменной, а не категориальной. В случае использования модели для предсказания непрерывных количественных переменных дерево называется регрессионным. Мы посмотрели на одномерные и двумерные классификационные деревья, теперь настало время взглянуть на регрессионные.

Перед нами стоит задача оценки времени пробуждения в зависимости от возраста человека. Корень нашего регрессионного дерева — оценка всего датасета. В этом случае, если требуется оценка без знания возраста конкретного человека, разумным предположением будет 6:25. Это и будет корнем нашего дерева.

Разумное первое разбиение — возраст 25 лет. В среднем, люди моложе 25 лет просыпаются в 7:05, а старше 25 — в 6 часов.

Существует всё еще много вариаций разбиения на возрастные группы, поэтому мы можем разделить выборку еще раз. Теперь можно предположить, что люди младше 12 лет просыпаются в 7:45, а в возрасте от 12 до 25 лет — в 6:40.

Группа людей старше 25 лет тоже может быть разумно разделена. Люди в возрасте от 25 до 40 лет просыпаются в среднем в 6:10, а в возрасте от 40 до 70 — в 5:50.

Поскольку наблюдается большая неоднозначность для младшей группы, можем разделить её еще раз. Теперь границей решений будет возраст 8 лет, что позволит более точно подстроиться под данные. Также можно разделить возрастную группу в диапазоне от 40 до 70 лет на отметке 58 лет. Отметим, мы добиваемся того, чтобы в каждом листе дерева находилось только одно или два значения из данных. Но это условие опасно тем, что может приводить к переобучению, о котором мы поговорим в скором времени.

В результате необходимо получить численную оценку в зависимости от возраста. Если требуется оценить время пробуждения для 36-летнего человека, можно начать с самой верхушки дерева. Этот процесс описывается следующим образом:

  • “Младше 25 лет?” — Нет; идем вправо.
  • “Младше 40 лет?” — Да; идем влево.
  • Оценка для этого листа — 6:10.

Структура дерева решений позволяет сортировать людей разных возрастов на соответствующие им ячейки и делать оценки времени пробуждения.

Конечно, существует способ расширения регрессионного дерева на случай двух предсказательных переменных. Если рассматривать не только возраст человека, но также и месяц года, можно получить явный и информативный паттерн. В Северной Америке дни длиннее в летние месяцы, и становится светлее раньше по утрам. В нашем нереалистичном примере дети и подростки не обременены строгим расписанием работы или учебы в школе, а их время пробуждения зависит только от того, когда восходит солнце. С другой стороны, взрослым присущ более стабильный распорядок дня, лишь немного зависящий от сезона. Но даже так, для старшего поколения характерно чуть более раннее время пробуждения.

Разветвленное дерево

Мы создаем дерево решений почти таким же образом, как и прошлое. Начинаем с корня — единичная оценка, которая грубо описывает весь набор данных — 6:30. (Здесь представлен код для визуализации с помощью библиотеки matplotlib).

Далее ищем подходящее место для установления границы решений. Делим данные по возрасту на отметке 35 лет, создавая две части:

  • популяция младше 35 лет с временем пробуждения 7:06
  • популяция старше 35 лет с временем пробуждения 6:12

Повторяем этот процесс, разделяя более молодую популяцию на два уровня — событие произошло до середины сентября и событие произошло до середины марта, соответственно. Такое разделение изолирует зимние месяцы от летних. Время пробуждения в зимние месяцы — 7:30 для людей младше 35 лет, а для летних — 6:56.

Теперь можем вернуться в узел с популяцией старше 35 лет и разделить его еще раз с границей в 48 лет для более точного представления.

Таким же образом разделим группу младше 35 лет для зимних месяцев добавлением границы в 18 лет. Человек младше 18 в зимние месяцы просыпается в 7:54, в противном случае, в 6:48.

Можно увидеть, что на графике начинают появляться высокие угловые пики. При каждом дополнительном разделении форма модели дерева решений становится более похожа на оригинальные данные. Кроме того, можно заметить, что в верхнем правом углу графика решающая граница начинает делить датасет на регионы примерно одинакового цвета.

Следующее разделение продолжает этот тренд, фокусируясь на группе младше 35 в летние месяцы, устанавливает границу в возрасте 13 лет. Форма модели становится всё более похожа на форму данных.

Этот процесс продолжается до тех пор, пока модель не станет хорошо представлять плавные тренды, соответствующие данным. Каждый решающий регион постепенно должен становиться меньше, тогда как аппроксимация лежащей в основе данных функции улучшается.

В тоже время деревья решений не лишены недостатков, важнейший из которых — переобучение. Возвращаясь к примеру регрессионного дерева с одной переменной (предсказание времени пробуждения по данным о возрасте), представим, что мы продолжаем разделять ось возраста до тех пор, пока в каждой ячейке не окажется один или два объекта из данных.

Когда мы дошли до этой стадии, дерево объясняет и описывает данные очень хорошо. Даже слишком хорошо. Такая модель не только находит лежащие в основе данных тренды (гладкая кривая, по которой следуют данные), но также реагирует и на шумы (несмоделированные отклонения), характерные для исследуемых данных. Если будет необходимо применить эту модель и предсказать время пробуждения на новых данных, шум из тренировочного сета будет делать предсказание менее точным. В идеале мы хотим, чтобы дерево решений находило только тренды, но не реагировало на шумы. Один из способов защититься от переобучения — убедиться, что в каждом листе нашего дерева находится больше чем один или несколько объектов. Такой способ позволяет усреднением избавиться от шума.

Другая вещь, на которую стоит обратить внимание — большое количество переменных. Мы начали с одномерного регрессионного дерева, затем добавили данные о месяцах, чтобы трансформировать дерево в двумерное. Такой метод не придает значение количеству измерений, которые у нас есть. Можно, например, добавить широту, интенсивность физической нагрузки человека в определенный день, индекс массы тела или любые другие переменные, которые могут быть релевантны для нашей задачи.

Чтобы визуализировать многомерные данные, используем прием, предложенный Джеффри Хинтоном — исследователем в области искусственных нейронных сетей. Он рекомендует следующее: “Чтобы иметь дело с гиперплоскостью в четырнадцатимерном пространстве, представьте себе трехмерное пространстве и скажите самому себе очень громко “четырнадцать.”

Проблема, возникающая при работе с многими переменными, связана с решением о том, какая из переменных должна идти в ветку при построении решающего дерева. Если имеется много переменных, то требуется большое количество вычислений. Также, чем больше переменных мы добавляем, тем большее количество данных нам необходимо, чтобы достоверно выбирать между ними. Легко попасть в ситуацию, где количество объектов в данных сравнимо с количеством переменных. Если наш датасет представлен в виде таблицы, то такая ситуация соответствует совпадению количества строк и столбцов. Существуют методы для борьбы с такими ситуациями, например, случайный выбор переменной для разделения в каждой ветке, но это требует повышенного внимания.

Вы можете свободно пользоваться всеми преимуществами силы деревьев решений, пока следите за местами, где модель может терпеть неудачи. Деревья решений — фантастический инструмент, когда вы хотите сделать как можно меньше предположений о ваших данных. Они обобщают и могут находить нелинейные зависимости между предсказательной и целевой переменной также хорошо, как и влияние одной предсказательной переменной на другую. Если имеется достаточное количество данных для осуществления необходимых разбиений, деревья решений могут выявлять квадратичные, экспоненциальные, циклические и другие зависимости. Деревья могут также находить неплавное поведение, резкие прыжки и пики, которые другие модели, такие как линейная регрессия или искусственные нейронные сети, могут скрывать.

Поэтому в задачах с большим объемом данных деревья решений показывают более высокие результаты, чем другие методы.

Классификация и регрессия с помощью деревьев принятия решений / Хабр

Введение

В данной статье сделан обзор деревьев принятия решений (Decision trees) и трех основных алгоритмов, использующих эти деревья для построение классификационных и регрессионных моделей. В свою очередь будет показано, как деревья принятия решения, изначально ориентированные на классификацию, используются для регрессии.
Деревья принятия решений

Дерево принятия решений — это дерево, в листьях которого стоят значения целевой функции, а в остальных узлах — условия перехода (к примеру “ПОЛ есть МУЖСКОЙ”), определяющие по какому из ребер идти. Если для данного наблюдения условие истина то осуществляется переход по левому ребру, если же ложь — по правому.

Классификация

На изображении приведенном выше показано дерево классификации ирисов. Классификация идет на три класса (на изображении помечены — красным, синим и зеленым), и проходит по параметрам: длина\толщина чашелистика (SepalLen, SepalWid) и длина\толщина лепестка (PetalLen, PetalWid). Как видим, в каждом узле стоит его принадлежность к классу (в зависимости от того, каких элементов больше попало в этот узел), количество попавших туда наблюдений N, а так же количество каждого класса. Так же не в листовых вершинах есть условие перехода — в одну из дочерних. Соответственно, по этим условиям и разбивается выборка. В результате, это дерево почти идеально (6 из 150 неправильно) классифицировало исходные данные (именно исходные — те на которых оно обучалось).

Регрессия

Если при классификации в листах стоят результирующие классы, при регрессии же стоит какое-то значение целевой функции.

На выше приведенном изображении регрессионное дерево, для определения цены на землю в городе Бостон в 1978 году, в зависимости от параметров RM — количество комнат, LSTAT — процент неимущих и нескольких других параметров (более детально можно посмотреть в [4]). Соответственно, здесь в каждом узле мы видим среднее значение (Avg) и стандартное отклонение (STD) значений целевой функции наблюдений попавших в эту вершину. Общее количество наблюдений попавших в узел N. Результатом регрессии будет то значение среднего (Avg), в какой узел попадёт наблюдение.
Таким образом изначально классификационное дерево, может работать и для регрессии. Однако при таком подходе, обычно требуются большие размеры дерева, чем при классификации, что бы достигнуть хороших результатов регрессии.

Основные методы

Ниже перечислены несколько основных методов, которые используют деревья принятия решений. Их краткое описание, плюсы и минусы.
CART

CART (англ. Classification and regression trees — Классификационные и регрессионные деревья) был первым из методов, придуманный в 1983 четверкой известных ученых в области анализа данных: Leo Breiman, Jerome Friedman, Richard Olshen and Stone [1].
Суть этого алгоритма состоит в обычном построении дерева принятия решений, не больше и не меньше.
На первой итерации мы строим все возможные (в дискретном смысле) гиперплоскости, которые разбивали бы наше пространство на два. Для каждого такого разбиения пространства считается количество наблюдений в каждом из подпространств разных классов. В результате выбирается такое разбиение, которое максимально выделило в одном из подпространств наблюдения одного из классов. Соответственно, это разбиение будет нашим корнем дерева принятия решений, а листами на данной итерации будет два разбиения.
На следующих итерациях мы берем один худший (в смысле отношения количества наблюдений разных классов) лист и проводим ту же операцию по разбиению его. В результате этот лист становится узлом с каким-то разбиением, и двумя листами.
Продолжаем так делать, пока не достигнем ограничения по количеству узлов, либо от одной итерации к другой перестанет улучшаться общая ошибка (количество неправильно классифицированных наблюдений всем деревом). Однако, полученное дерево будет “переобучено” (будет подогнано под обучающую выборку) и, соответственно, не будет давать нормальные результаты на других данных. Для того, что бы избежать “переобучения”, используют тестовые выборки (либо кросс-валидацию) и, соответственно, проводится обратный анализ (так называемый pruning), когда дерево уменьшают в зависимости от результата на тестовой выборке.
Относительно простой алгоритм, в результате которого получается одно дерево принятия решений. За счет этого, он удобен для первичного анализа данных, к примеру, что бы проверить на наличие связей между переменными и другим.
Быстрое построение модели
Легко интерпретируется (из-за простоты модели, можно легко отобразить дерево и проследить за всеми узлами дерева)
Часто сходится на локальном решении (к примеру, на первом шаге была выбрана гиперплоскость, которая максимально делит пространство на этом шаге, но при этом это не приведёт к оптимальному решению)
RandomForest

Random forest (Случайный лес) — метод, придуманный после CART одним из четверки — Leo Breiman в соавторстве с Adele Cutler [2], в основе которого лежит использование комитета (ансамбля) деревьев принятия решений.
Суть алгоритма, что на каждой итерации делается случайная выборка переменных, после чего, на этой новой выборке запускают построение дерева принятия решений. При этом производится “bagging” — выборка случайных двух третей наблюдений для обучения, а оставшаяся треть используется для оценки результата. Такую операцию проделывают сотни или тысячи раз. Результирующая модель будет будет результатом “голосования” набора полученных при моделировании деревьев.
Высокое качество результата, особенно для данных с большим количеством переменных и малым количеством наблюдений.
Возможность распараллелить
Не требуется тестовая выборка
Каждое из деревьев огромное, в результате модель получается огромная
Долгое построение модели, для достижения хороших результатов.
Сложная интерпретация модели (Сотни или тысячи больших деревьев сложны для интерпретации)
Stochastic Gradient Boosting

Stochastic Gradient Boosting (Стохастическое градиентное добавление) — метод анализа данных, представленный Jerome Friedman [3] в 1999 году, и представляющий собой решение задачи регрессии (к которой можно свести классификацию) методом построения комитета (ансамбля) “слабых” предсказывающих деревьев принятия решений.
На первой итерации строится ограниченное по количеству узлов дерево принятия решений. После чего считается разность между тем, что предсказало полученное дерево умноженное на learnrate (коэффициент “слабости” каждого дерева) и искомой переменной на этом шаге.
Yi+1=Yi-Yi*learnrate
И уже по этой разнице строится следующая итерация. Так продолжается, пока результат не перестанет улучшаться. Т.е. на каждом шаге мы пытаемся исправить ошибки предыдущего дерева. Однако здесь лучше использовать проверочные данные (не участвовавшие в моделировании), так как на обучающих данных возможно переобучение.
Высокое качество результата, особенно для данных с большим количеством наблюдений и малым количеством переменных.
Сравнительно (с предыдущим методом) малый размер модели, так как каждое дерево ограничено заданными размерами.
Сравнительно (с предыдущим методом) быстрое время построение оптимальное модели
Требуется тестовая выборка (либо кросс-валидация)
Невозможность хорошо распараллелить
Относительно слабая устойчивость к ошибочным данным и переобучению
Сложная интерпретация модели (Так же как и в Random forest)
Заключение

Как мы увидели у каждого метода есть свои плюсы и минусы, и соответственно, в зависимости от задачи и исходных данных, при решении можно использовать один из трех методов и получить нужный результат. Однако, CART больше используется в университетах для обучения и исследований, когда необходима какая-то чёткая описательная база для решения (как в приведенном выше примере анализа цены земли в Бостоне). А для решения промышленных задач обычно используют один из его потомков — Random Forest или TreeNet.
Перечисленные методы можно найти в многих современных пакетах для анализа данных:

Список литературы

  1. “Classification and Regression Trees”. Breiman L., Friedman J. H., Olshen R. A, Stone C. J.
  2. “Random Forests”. Breiman L.
  3. “Stochastic Gradient Boosting”. Friedman J. H.
  4. http://www.cs.toronto.edu/~delve/data/boston/bostonDetail.html

Руководство к использованию деревьев решений в машинном обучении и науке о данных | by Margarita M | NOP::Nuances of Programming

Деревья решений являются классом очень эффективной модели машинного обучения, позволяющей получить высокую точность в решении многих задач, сохраняя при этом высокий уровень интерпретации. Четкость представления информации делает деревья решений особенными среди других моделей машинного обучения. Освоенные деревом решений «знания» напрямую формируются в иерархическую структуру, которая хранит и представляет знания в понятном даже для неспециалистов виде.

Вы скорее всего уже использовали деревья решений для того, чтобы сделать какой-нибудь выбор в своей жизни. Например, нужно решить, чем вы займетесь на предстоящих выходных. Итог может зависеть от того, хотите ли вы пойти куда-то с друзьями или провести выходные в одиночестве. В обоих случаях решение зависит также и от погоды. Если она будет солнечной и друзья будут свободны, вы можете сходить поиграть в футбол. Если пойдет дождь, вы пойдете в кино. Если друзья будут заняты, то вы останетесь дома играть в видео игры, даже несмотря на хорошую погоду.

Этот пример хорошо демонстрирует дерево решений в реальной жизни. Мы построили дерево и смоделировали ряд последовательных, иерархических решений, которые, в конечном итоге, приводят к некоторому результату. Обратите внимание, что мы выбрали максимально общие варианты решения, чтобы дерево было маленьким. Дерево будет просто огромным, если мы установить много возможных вариантов погоды, например: 25 градусов, солнечно; 25 градусов, дождливо; 26 градусов, солнечно; 26 градусов, дождливо; 27 градусов, солнечно; 27 градусов, дождливо и т.д. Конкретная температура не важна. Нам нужно лишь знать, будет ли погода хорошей или нет.

В машинном обучении концепция деревьев решений такая же. Нам нужно построить дерево с набором иерархических решений, которые в конце приведут нас к результату, то есть к нашей классификации или прогнозу регрессии. Решения выбираются таким образом, чтобы дерево было максимально маленьким, но при этом сохраняло точность классификации или регрессии.

Модели дерева решений строятся в два этапа: индукция и отсечение. Индукция — это то, где мы строим дерево, то есть устанавливаем все границы иерархического решения, основываясь на наших данных. Из-за своего характера обучаемые деревья решений могут быть подвержены значительному переобучению. Отсечение — это процесс удаления ненужной структуры из дерева решений, эффективно упрощая его для понимания и избежания переобучения.

Индукция

Индукция дерева решений проходит 4 главных этапа построения:

  1. Начните с обучающего набора данных, в котором должны содержаться признаки переменных и результаты классификации или регрессии.
  2. Определите «лучший признак » в наборе данных для их разбиения. О том, как определить этот «лучший признак » поговорим позже.
  3. Разбейте данные на подмножества, которые будут содержать возможные значения для лучшего признака. Такое разбиение в основном определяет узел на дереве, то есть каждый узел — это разделенная точка, основанная на определенном признаке из наших данных.
  4. Рекурсивно сгенерируйте новые узлы дерева с помощью подмножества данных, созданных на 3 этапе. Продолжайте разбиение до тех пор, пока не достигните точки, на которой будет находится оптимизированная каким-то способом максимальная точность. Старайтесь минимизировать количество разбиений и узлов.

Первый этап простой. Просто соберите свой набор данных!

На втором этапе выбор признака и определенного разбиения обычно осуществляется с помощью жадного алгоритма для уменьшения функции стоимости. Если подумать, разбиение при построении дерева решений эквивалентно разбиению признакового пространства. Мы будем несколько раз пробовать разные точки разбиения, а в конце выберем ту, которая имеет наименьшую стоимость. Конечно, можно проделать пару умных вещей, таких как разбиение только в диапазоне значений в нашем наборе данных. Это позволит сократить количество вычислений для тестирования точек разбиений, которые являются заведомо бесполезными.

Для дерева регрессии можно использовать простой квадрат ошибки в качестве функции стоимости:

Где Y — это достоверные данные, а Y с шапкой — это прогнозируемое значение. Мы суммируем по всем выборкам в нашем наборе данных, чтобы получить общую ошибку. Для классификации мы используем функцию коэффициента Джини:

Где pk — это доля обучающих примеров класса k в определенном узле прогнозирования. В идеале узел должен иметь значение ошибки, равное нулю, означающее, что каждое разбиение выводит один класс 100% времени. Это именно то, что нам нужно, так как добравшись до конкретно этого узла принятия решения, мы будем знать, каким будет вывод в зависимости от того, на какой стороне границы мы находимся.

Такая концепция единственного класса на узел в наборе данных называется «прирост информации». Посмотрите на пример ниже.

Если бы нам пришлось выбрать разбиение, на котором каждый выход имеет разные классы в зависимости от входных данных, тогда бы мы не добыли никакой информации. Мы не узнали бы больше о том, влияет ли конкретный узел, то есть функция, на классификацию данных! С другой стороны, если наше разбиение имеет высокий процент каждого класса для каждого выхода, то мы добыли информацию о том, что разбиение таким конкретным образом на эту конкретную переменную дает нам конкретный выход!

Теперь мы могли бы продолжить разбиение до тех пор, пока у нашего дерева не появятся тысячи ветвей… Но это плохая идея! Наше дерево решений было бы огромным, медленным и переобученным для нашего обучающего набора данных. Поэтому мы установим некоторые заранее определенные критерии остановки, чтобы прекратить построение дерева.

Наиболее распространенным методом остановки является использование минимального расчета по количеству обучающих примеров, назначенных для каждой вершины дерева. Если число меньше некоторого минимального значения, то разбиение не считается и узел назначается конечной вершиной дерева. Если все вершины дерева становятся конечными, то обучение прекращается. Чем меньше минимальное число, тем точнее будет разбиение и, соответственно, вы получите больше информации. Но в таком случае минимальное число склонно к переобучению обучающими данными. Слишком большое количество минимальных чисел приведет к остановке обучения слишком рано. Таким образом, минимальное значение обычно устанавливается на основе данных в зависимости от того, сколько примеров ожидается в каждом классе.

Отсечение

Из-за своего характера обучающие деревья решений могут быть подвержены значительному переобучению. Выбор правильного значения для минимального количества примеров на узел может оказаться сложной задачей. Во многих случаях можно было бы просто пойти по безопасному пути и сделать этот минимум очень маленьким. Но в таком случае, у нас было бы огромное количество разбиений и, соответственно, сложное дерево. Дело в том, что многие из получившихся разбиений окажутся лишними и не помогут увеличить точность модели.

Отсечение ветвей дерева — это метод, сокращающий количество разбиений с помощью удаления, т.е. отсечения, ненужных разбиений дерева. Отсечение обобщает границы решений, эффективно уменьшая сложность дерева. Сложность дерева решений определяется количеством разбиений.

Простой, но очень эффективный метод отсечения происходит снизу вверх через узлы, оценивая необходимость удаления определенного узла. Если узел не влияет на результат, то он отсекается.

Деревья решений как для классификации, так и для регрессии удобно использовать в библиотеке Scikit-learn со встроенным классом! Сначала загружаем набор данных и инициализируем дерево решений для классификации. Провести обучение будет очень просто!

from sklearn.datasets import load_iris
from sklearn import tree

# Load in our dataset
iris_data = load_iris()

# Initialize our decision tree object
classification_tree = tree.DecisionTreeClassifier()

# Train our decision tree (tree induction + pruning)
classification_tree = classification_tree.fit(iris_data.data, iris_data.target)

Scikit-learn также позволяет визуализировать дерево с помощью библиотеки graphviz, в которой есть несколько очень полезных опций для визуализации узлов решений и разбиений, выученных моделью. Ниже обозначим узлы разными цветами, отталкиваясь от признаков имен, и отобразим класс и признак каждого узла.

import graphviz 
dot_data = tree.export_graphviz(classification_tree, out_file=None,
feature_names=iris.feature_names,
class_names=iris.target_names,
filled=True, rounded=True,
special_characters=True)
graph = graphviz.Source(dot_data)
graph.render("iris")

Кроме того, в Scikit-learn можно указать несколько параметров для модели дерева решений. Ниже приведем некоторые из таких параметров, позволяющих получить лучший результат:

  • max_depth: максимальная глубина дерева — точка, на которой останавливается разбиение узлов. Это похоже на выбор максимального количества слоев в глубокой нейронной сети. Меньшее количество сделает модель быстрой, но не точной. Большее количество увеличивает точность, но создает риски переобучения и замедляет процесс.
  • min_samples_split: необходимое минимальное количество выборок для разбиения узлов. Мы уже обсуждали это выше вместе с тем, как настроить высокое значение, чтобы минимизировать переобучение.
  • max_features: число признаков для поиска лучшей точки для разбиения. Чем больше число, тем лучше результат. Но в этом случае обучение займет больше времени.
  • min_impurity_split: порог для ранней остановки роста дерева. Узел разобьется только в том случае, если его точность будет выше указанного порога. Такой метод может служить в качестве компромисса между минимизацией переобучения (высокое значение, маленькое дерево) и высокой точностью (низкое значение, большое дерево).
  • presort: выбор того, нужно ли предварительно сортировать данные для ускорения поиска наилучшего разбиения при подборе. Если данные заранее отсортируются по каждому признаку, то алгоритму обучения будет гораздо проще найти хорошие значения для разбиения.

Ниже опишем все плюсы и минусы деревьев решений, которые помогут вам понять, нужно ли строить такую модель для решения определенной задачи или нет. Также дадим некоторые советы о том, как их можно эффективно использовать.

Плюсы
  • Их легко понять. В каждом узле мы можем точно увидеть, какое решение принимает наша модель. На практике мы сможем точно узнать, откуда исходят точности и ошибки, с какими видами данных модель будет справляться и как значения признаков влияют на выход. Опция визуализация в Scikit-learn является удобным инструментом, способствующим хорошему пониманию деревьев решений.
  • Не требует объемной подготовки данных. Многие модели машинного обучения требуют предварительной обработки данных (например, нормализации) и нуждаются в сложных схемах регуляризации. С другой стороны, деревья решений эффективны после настройки некоторых параметров.
  • Стоимость использования дерева для вывода является логарифмической от числа точек данных, используемых для обучения дерева. Это является большим преимуществом, так как большое количество данных не сильно повлияет на скорость вывода.

Минусы
  • Из-за своего характера обучения деревья решений подвержены переобучению. Рекомендуется часто применять некоторые виды понижения размерности, например, PCA, чтобы дерево не создавало разбиения по большому количеству признаков.
  • По тем же причинам, что и переобучение, деревья решений также уязвимы к смещению классов, которые есть в большинстве наборов данных. Хорошим решением в данном случае является периодическая балансировка классов (веса класса, выборка, определенная функция потерь).

Перевод статьи George Seif:A Guide to Decision Trees for Machine Learning and Data Science

Применение методов машинного обучения на основе решающих деревьев для компенсации нелинейных искажений в волоконно-оптических линиях связи Текст научной статьи по специальности «Компьютерные и информационные науки»

ВКВО-2019- ВОСПИ

ПРИМЕНЕНИЕ МЕТОДОВ МАШИННОГО ОБУЧЕНИЯ

НА ОСНОВЕ РЕШАЮЩИХ ДЕРЕВЬЕВ ДЛЯ КОМПЕНСАЦИИ НЕЛИНЕЙНЫХ ИСКАЖЕНИЙ В ВОЛОКОННО-ОПТИЧЕСКИХ ЛИНИЯХ СВЯЗИ

1 2 3*

Ракитский А.А. ‘ ‘ , Редюк А.А.

2,1

1 Новосибирский государственный университет, г. Новосибирск 2Институт вычислительных технологий СО РАН, г. Новосибирск 3 Сибирский государственный университет телекоммуникаций и информатики, г. Новосибирск

* E-mail: [email protected]

DOI 10.24411/2308-6920-2019-16057

В настоящее время методы машинного обучения получили широкое распространение и применение практически во всех областях науки. Целесообразность применения таких методов в исследованиях, связанных с волоконно-оптическими линиями связи, была показана, например, в работах [1,2]. Тем не менее, существуют перспективные методы машинного обучения, возможность применения которых для решения задачи компенсации нелинейных искажений ранее не исследовалась. К таким методам относятся, в том числе, ансамбли классификаторов, базирующиеся на решающих деревьях, такие как Random Forest [3], Extra Trees и Gradient Boosting. Важными плюсами таких методов, благодаря которым на них пал выбор в данной работе, являются легкая интерпретируемость получаемых результатов и относительно низкая потребность в вычислительных ресурсах. Например, для классификации объекта при помощи «случайного леса», состоящего из 100 деревьев глубиной не более 10, потребуется не более 1000 операций сравнения без использования операций умножения.

При выполнении данной работы было проведено исследование возможности применения описанных выше алгоритмов для компенсации нелинейных искажений в волоконно-оптических линиях связи. Результаты экспериментов показали, что, даже при ограничении на конфигурацию классификатора в 1000 операций сравнения, можно подобрать такие параметры, при которых сформированный классификатор позволяет улучшить результат базовых методов определения значений сигнала.

Краткая теория

Решающее дерево — простой классификатор, представляющий из себя двоичное дерево, в котором каждый внутренний узел имеет двух потомков и содержит в себе некоторое логическое условие, а листовой узел относится к тому или иному классу.

Случайный лес — набор решающих деревьев, каждое из которых построено на основе случайной подвыборки обучающих данных. Исследуемый объект классифицируется каждым из деревьев, а итоговый результат классификации определяется при помощи голосования.

Экспериментальная часть исследования

При проведении исследования использовались данные, смоделированные ранее в рамках работы [4]. Рассматривалась трёхканальная передача импульсов с использованием двух поляризаций в каждом канале с форматом модуляции 16-QAM (quadature amplitude modulation) на 2000 км. В качестве формы импульсов использовалась форма RRC (root raised cosine) с коэффициентом сглаживания 0,1 на символьной скорости 32 ГБод и межканальным расстоянием 37,5 ГГц. Число передаваемых символов для обучения и тестового запуска для каждой поляризации составляло 216. В данной работе рассматриваются только внутриканальные нелинейные искажения, без учёта влияния второй поляризации или соседних каналов. В контексте задачи классификации, 16-QAM модуляция будет означать, что каждый импульс можно отнести к одному из 16 классов. Основной задачей является выявление возможности подбора параметров классификатора, которые позволяют улучшить результаты простейших методов определения значений импульсов. Сравнение результатов работы классификатора будет производиться с простейшим методом, когда импульс относится к тому узлу сетки, к которому он находится ближе всего.

Прежде всего необходимо описать ход самого исследования. Имеются 25 наборов данных с разной передаваемой мощностью (от -6 до 6 дБ с шагом 0.5). Каждый из этих наборов содержит обучающую и тестовую последовательности импульсов длинами по 65536 значений. В исследовании мы рассматривали только средний канал и одну поляризацию, не учитывая влияние остальных.

116 №6 2019 СПЕЦВЫПУСК «ФОТОН-ЭКСПРЕСС-НАУКА 2019» [email protected]

ВКВО-2019 ВОСПИ

Так как мы не ставили перед собой целью разработку новых алгоритмов построения решающих деревьев или их ансамблей, то для исследования воспользовались готовыми решениями на языке python при помощи библиотеки scikit-learn. Рассматривались такие классификаторы, как RandomForest, ExtraTrees и GradientBoosting, все они используют в своей основе решающие деревья. К сожалению, классификаторы ExtraTrees и GradientBoosting показали слабые результаты ещё на начальных этапах исследовании, поэтому были исключены из дальнейшего рассмотрения.

Отдельно рассмотрим, каким образом строятся классификаторы и что используется в качестве признаков объекта, а кроме того, как именно учитываются межимпульсные взаимодействия внутри канала. Во-первых, несмотря на то, что каждый символ представляется комплексным числом, для работы с классификатором мы будем рассматривать вещественную и мнимую части как два независимых числа. Таким образом, импульс задаётся двумя вещественными числами. Объектом классификации назовём полученный символ, значение которого необходимо определить. Для того, чтобы учесть межимпульсное влияние, мы добавим в объект в качестве дополнительных характеристик значения нескольких соседних импульсов, как уже полученных, так и тех, которые будут получены после рассматриваемого. Одним из параметров конфигурации нашего классификатора будет именно это число соседей. Очевидно, что чем больше соседей попадают в рассмотрение, тем более перегруженным становится каждый объект и тем больше времени требуется для обучения такого классификатора. В рамках исследования мы рассматривали не более 10 соседей с каждой из сторон. В качестве ответа для обучающей последовательности использовалось истинное значение импульса, которое было передано изначально.

Другими параметрами «случайного леса» являются количество решающих деревьев и их максимальная высота. Так как рассматриваемый метод интересен в первую очередь его низкими трудозатратами, мы рассматривали только те конфигурации, в которых произведение числа деревьев и их максимальной глубины не превосходит 1000. в процентах относительно

простейшего метода

Полученные результаты позволяют говорить о том, что данный метод имеет потенциал применения на практике и может быть использован, например, в качестве дополнения к другим методам компенсации нелинейных искажений [1].

Исследование выполнено при поддержке Российского научного фонда (грант № 17-72-30006).

Литература

1.

2.

3.

4.

Averyanov, Evgeny, et al. «Perturbative Machine Learning Technique for Nonlinear Impairments Compensation in WDM Systems.» 2018 European Conference on Optical Communication (ECOC). IEEE, 2018 Shen, Thomas Shun Rong, and Alan Pak Tao Lau. «Fiber nonlinearity compensation using extreme learning machine for DSP-based coherent communication systems. » 16th Opto-Electronics and Communications Conference. IEEE, 2011

Liaw, Andy and Matthew Wiener. «Classification and regression by randomForest. » R news 2.3 (2002): pp. 18-22. Редюк, А. А, et al. «Метод компенсации нелинейных искажений сигнала в волоконных системах связи на основе теории возмущений и машинного обучения.» Прикладная фотоника 5.3 (2018): 265-276

№6 2019 СПЕЦВЫПУСК «ФОТОН-ЭКСПРЕСС-НАУКА 2019» [email protected]

117

Классификатор на основе решающего дерева


Евгений Борисов

понедельник, 26 мая 2014 г.

В этой статье мы поговорим о методе классификации, который носит название решающее дерево. Алгоритм построения решающего дерева рекурсивно разделяет исходное множество точек на две части, до тех пор пока в каждое, полученное таким образом, подмножество будет содержать точки только одного типа.

Для построения разделительных гиперплоскостей в пространстве признаков, этот метод использует понятие информативности.

1 Информативность

Рассмотрим множество точек X, и некоторый классификатор φ(X) → { 0, 1}.

Неформально – классификатор φ тем более информативен, чем больше он выделяет объектов ”своего” класса по сравнению с объектами всех остальных ”чужих” классов.

Свои объекты назовём позитивными, а чужие – негативными.

Введём следующие обозначения:

P ≥ 1 – число объектов класса c в выборке X

p(φ) – из них число объектов, для которых выполняется условие φ(x) = 1 (правильный результат)

N ≥ 1 – число объектов всех остальных классов в выборке X

n(φ) – из них число объектов, для которых выполняется условие φ(x) = 1 (ошибки классификатора)

Информативность классификатора φ тем выше, чем больше объектов он выделяет, и чем меньше среди них негативных.

p(φ) → max   ;   n(φ) → min

Введём формальное определение информативности.

Рассмотрим два исхода w0,w1 с вероятностями q0 и q1= 1 −q0, количество информации, связанное с исходом wi, по определению равно − log 2qi. Это математическое ожидание числа бит, необходимых для записи информации о реализации исходов wi.

Энтропия определяется как мат.ожидание количества информации:

Будем считать появление объекта класса c исходом w0, а появление объекта любого другого класса исходом w1. Тогда можно оценить энтропию выборки X:

Энтропия всей выборки после получения информации φ становится равна:

В итоге уменьшение энтропии составляет

Это есть энтропийное определение информативности.

2 Построение решающего дерева

Рассмотрим учебный набор (X,Y ) в n-мерном пространстве признаков, где X – объекты, Y – соответствующие объектам номера классов. Процедура построение решающего дерева представляем собой рекурсивное разделение этого множества точек на две части с максимизацией информативности этого разделения на каждом шаге.

Алгоритм обучения выглядит следующим образом.

  1. если X содержит точки только одного класса
    то переход на п.6
  2. выбрать признак номер i и найти для него пороговое значение b ( min(Xi) < b < max(Xi) ) с максимальной информативностью разделения
  3. сохранить найденную пару (i,b)
  4. разделить X на две части по признаку i и его порогу b
  5. выполнить рекурсивно с п.1 для каждого полученного на пред.шаге подмножества
  6. конец работы

3 Реализация

На рисунке ниже проиллюстрирована результаты работы решающего дерева

 
Рис.1: результат работы
 
  Реализация в системе Octave [  здесь  ].  
 

Список литературы

[1]    Воронцов К.В. Логические методы классификации – http://shad.yandex.ru/lectures/machine_learning.xml

[2]    GNU Octave – http://www.gnu.org/software/octave/

При использовании материалов этого сайта, пожалуйста вставляйте в свой текст ссылку на мою статью.

Реализация и разбор алгоритма «случайный лес» на Python

Использование готовых библиотек, таких как Scikit-Learn, позволяет легко реализовать на Python сотни алгоритмов машинного обучения.

В этой статье мы научимся создать и использовать алгоритм «случайный лес» (Random Forest) на Python. Помимо непосредственного изучения кода, мы постараемся понять принципы работы модели. Этот алгоритм составлен из множества деревьев решений, поэтому сначала мы разберёмся, как одно такое дерево решает проблему классификации. После этого с помощью алгоритма решим проблему, используя набор реальных научных данных. Весь код, используемый в этой статье, доступен на GitHub в Jupyter Notebook.

Как работает дерево решений

Дерево решений — интуитивно понятная базовая единица алгоритма случайный лес. Мы можем рассматривать его как серию вопросов да/нет о входных данных. В конечном итоге вопросы приводят к предсказанию определённого класса (или величины в случае регрессии). Это интерпретируемая модель, так как решения принимаются так же, как и человеком: мы задаём вопросы о доступных данных до тех пор, пока не приходим к определённому решению (в идеальном мире).

Базовая идея дерева решений заключается в формировании запросов, с которыми алгоритм обращается к данным. При использовании алгоритма CART вопросы (также называемые разделением узлов) определяются таким образом, чтобы ответы вели к уменьшению загрязнения Джини (Gini Impurity). Это означает, что дерево решений формирует узлы, содержащие большое количество образцов (из набора исходных данных), принадлежащих к одному классу. Алгоритм старается обнаружить параметры со сходными значениями.

Подробности, касающиеся загрязнения Джини, мы обсудим позже, а сейчас давайте создадим дерево решений, чтобы понять, как работает этот алгоритм.

Дерево решений для простой задачи

Начнём с проблемы простой бинарной классификации, изображённой на диаграмме.

Наш набор данных имеет всего два параметра (две заданные переменные), x1 и x2, а также 6 образцов, несущих эти параметры. Образцы разделены метками на два класса. Хотя это простая задача, линейно классы разделить невозможно. Это означает, что мы не можем нарисовать на предложенной плоскости прямую линию, которая отделит один класс от другого.

В то же время мы можем разбить плоскость на участки (узлы) несколькими прямыми линиями. Именно это делает дерево решений в процессе тренировки. По сути дерево решений — нелинейная модель, создаваемая с помощью множества линейных ограничителей.

Мы используем Scikit-Learn, чтобы создать дерево решений и обучить (fit) его, используя наши данные.

from sklearn.tree import DecisionTreeClassifier

# Создаём и обучаем дерево принятия решений
tree = DecisionTreeClassifier(random_state=RSEED)
tree.fit(X, y)

Во время обучения мы используем и параметры, и метки, чтобы модель научилась сортировать данные на основе параметров. Для таких простых задач не используется тестовый набор данных. Но при тестировании модели мы сообщаем только параметры и сравниваем результат сортировки с теми метками, которые ожидали получить.

Можно проверить точность предсказаний нашей модели:

print('Model Accuracy:', tree.score(X, y))

Model Accuracy: 1.0

Разумеется, мы получим точность 100 %, так как сообщили модели правильные ответы (y) и не ограничивали глубину дерева. Но следует помнить, что подобная подгонка дерева решений под тренировочные данные может спровоцировать переобучение модели.

Визуализация дерева решений

Что же на самом деле происходит при обучении дерева решений? Хороший способ понять это — визуализация модели при помощи соответствующей функции Scikit-Learn (подробнее функция рассматривается в данной статье).

Во всех узлах, кроме листьев (цветные узлы без исходящих связей), содержится 5 частей:

  1. Вопрос о значении параметра образца. Ответ может принимать значение True или False. Это точка разделения узла, в зависимости от ответа определяется, в каком направлении вниз по дереву продвинется образец данных.
  2. Gini: средневзвешенное загрязнение Джини должно уменьшаться по мере того, как мы движемся вниз по дереву.
  3. Samples: количество прошедших через этот узел образцов.
  4. Value: отношение классов, прошедших через этот узел, выраженное в абсолютных числах. К примеру, верхний узел выделил 2 образца класса 0 и 4 образца класса 1.
  5. Class: класс большинства прошедших через узел образцов. Для листьев это прогнозируемое значение всех попадающих в эти узлы элементов.

Листья не содержат вопроса, так как являются финальными прогнозируемыми значениями классификации. Чтобы обработать новый элемент набора данных, нужно просто двигаться вниз по дереву, используя параметры элемента для ответов на вопросы. В финале вы доберётесь до одного из листьев, значение Class которого и будет прогнозируемым классом элемента.

Чтобы взглянуть на дерево решений под другим углом, мы спроецируем разделения модели на исходные данные.

Каждое разделение отображается одной линией, разделяющей образцы данных на узлы в соответствии со значением параметров. Поскольку максимальная глубина дерева не ограничена, разделение размещает каждый элемент в узел, содержащий только элементы того же класса. Позже мы рассмотрим, как идеальное разделение обучающих данных может привести к переобучению.

Загрязнение Джини

Теперь самое время рассмотреть концепцию загрязнения Джини (математика не так уж страшна, как кажется). Загрязнение Джини — вероятность неверной маркировки в узле случайно выбранного образца. К примеру, в верхнем (корневом) узле вероятность неверной классификации образца равна 44.4 %. Это можно вычислить с помощью уравнения:

Загрязнение Джини узла n равно 1 минус сумма отношений класса к общему количеству образцов pi, возведённых в квадрат, для каждого из множества классов J (в нашем случае это всего 2 класса). Звучит сложно, поэтому покажем, как вычисляется загрязнение Джини для корневого узла:

В каждом узле дерево решений ищет такое значение определённого параметра, которое приведёт к максимальному уменьшению загрязнения Джини. В качестве альтернативы для разделения узлов также можно использовать концепцию накопления информации.

Затем процесс разделения повторяется с использованием «жадной», рекурсивной процедуры, пока дерево не достигнет максимальной глубины или в каждом узле не останутся только образцы одного класса. Общевзвешенное загрязнение Джини должно уменьшаться с каждым уровнем. В нашем случае на втором уровне оно составит 0.333:

Удельный вес загрязнения Джини для каждого узла равен отношению количества образцов, обработанных этим узлом, к количеству обработанных родительским узлом. Вы можете самостоятельно рассчитать загрязнение Джини для последующих уровней дерева и отдельных узлов, используя данные визуализации. Таким образом, эффективная модель строится на базовых математических операциях.

В итоге общевзвешенное загрязнение Джини последнего слоя сводится к нулю. Это значит, что каждый конечный узел содержит только образцы одного класса, и случайно выбранный образец не может быть неверно классифицирован. Звучит отлично, но помните, что это может быть сигналом того, что модель переобучена. Это происходит, потому что узлы смоделированы только на обучающих данных.

Переобучение, или почему лес лучше одного дерева

Может создаться впечатление, что для решения задачи хватило бы и одного дерева решений. Ведь эта модель не делает ошибок. Однако важно помнить, что алгоритм безошибочно отсортировал только тренировочные данные. Этого и следовало ожидать, поскольку мы указали верные ответы и не ограничили глубину дерева (количество слоёв). Но цель машинного обучения состоит в том, чтобы научить алгоритм обобщать полученную информацию и верно обрабатывать новые, ранее не встречавшиеся данные.

Переобучение происходит, когда мы используем очень гибкую модель (с высокой вместимостью), которая просто запоминает обучающий набор данных, подгоняя узлы под него. Проблема в том, что такая модель выявляет не только закономерности в данных, но и любой присутствующий в них шум. Такую гибкую модель часто называют высоковариативной, поскольку параметры, формирующиеся в процессе обучения (такие как структура дерева решений) будут значительно варьироваться в зависимости от обучающего набора данных.

С другой стороны, у недостаточно гибкой модели будет высокий уровень погрешности, поскольку она делает предположения относительно тренировочных данных (модель смещается в сторону предвзятых предположений о данных). К примеру, линейный классификатор предполагает, что данные распределены линейно. Из-за этого он не обладает достаточной гибкостью для соответствия нелинейным структурам. Ригидная модель может оказаться недостаточно ёмкой даже для соответствия тренировочным данным.

В обоих случаях — и при высокой вариативности, и при высокой погрешности — модель не сможет эффективно обрабатывать новые данные.

Поиск баланса между излишней и недостаточной гибкостью модели является ключевой концепцией машинного обучения и называется компромиссом между вариативностью и погрешностью (bias-variance tradeoff).

Алгоритм дерева решений переобучается, если не ограничить его максимальную глубину. Он обладает неограниченной гибкостью и может разрастаться, пока не достигнет состояния идеальной классификации, в которой каждому образцу из набора данных будет соответствовать один лист. Если вернуться назад к созданию дерева и ограничить его глубину двумя слоями (сделав только одно разделение), классификация больше не будет на 100 % верной. Мы уменьшаем вариативность за счёт увеличения погрешности.

В качестве альтернативы ограничению глубины, которое ведёт к уменьшению вариативности (хорошо) и увеличению погрешности (плохо), мы можем собрать множество деревьев в единую модель. Это и будет классификатор на основе комитета деревьев принятия решений или просто «случайный лес».

Случайный лес

Случайный лес — модель, состоящая из множества деревьев решений. Вместо того,чтобы просто усреднять прогнозы разных деревьев (такая концепция называется просто «лес»), эта модель использует две ключевые концепции, которые и делают этот лес случайным.

  1. Случайная выборка образцов из набора данных при построении деревьев.
  2. При разделении узлов выбираются случайные наборы параметров.

Случайная выборка тренировочных образцов

В процессе тренировки каждое дерево случайного леса учится на случайном образце из набора данных. Выборка образцов происходит с возмещением (в статистике этот метод называется бутстреппинг, bootstrapping). Это даёт возможность повторно использовать образцы одним и тем же деревом. Хотя каждое дерево может быть высоковариативным по отношению к определённому набору тренировочных данных, обучение деревьев на разных наборах образцов позволяет понизить общую вариативность леса, не жертвуя точностью.

При тестировании результат выводится путём усреднения прогнозов, полученных от каждого дерева. Подход, при котором каждый обучающийся элемент получает собственный набор обучающих данных (с помощью бутстреппинга), после чего результат усредняется, называется бэггинг (bagging, от bootstrap aggregating).

Случайные наборы параметров для разделения узлов

Вторая базовая концепция случайного леса заключается в использовании определённой выборки параметров образца для разделения каждого узла в каждом отдельном дереве. Обычно размер выборки равен квадратному корню из общего числа параметров. То есть, если каждый образец набора данных содержит 16 параметров, то в каждом отдельном узле будет использовано 4. Хотя обучение случайного леса можно провести и с полным набором параметров, как это обычно делается при регрессии. Этот параметр можно настроить в реализации случайного леса в Scikit-Learn.

Случайный лес сочетает сотни или тысячи деревьев принятия решений, обучая каждое на отдельной выборке данных, разделяя узлы в каждом дереве с использованием ограниченного набора параметров. Итоговый прогноз делается путём усреднения прогнозов от всех деревьев.

Чтобы лучше понять преимущество случайного леса, представьте следующий сценарий: вам нужно решить, поднимется ли цена акций определённой компании. У вас есть доступ к дюжине аналитиков, изначально не знакомых с делами этой компании. Каждый из аналитиков характеризуется низкой степенью погрешности, так как не делает каких-либо предположений. Кроме того, они могут получать новые данные из новостных источников.

Трудность задачи в том, что новости, помимо реальных сигналов, могут содержать шум. Поскольку предсказания аналитиков базируются исключительно на данных — обладают высокой гибкостью — они могут быть искажены не относящейся к делу информацией. Аналитики могут прийти к разным заключениям, исходя из одних и тех же данных. Кроме того, каждый аналитик старается делать прогнозы, максимально коррелирующие с полученными отчётами (высокая вариативность) и предсказания могут значительно различаться при разных наборах новостных источников.

Поэтому нужно не опираться на решение какого-то одного аналитика, а собрать вместе их прогнозы. Более того, как и при использовании случайного леса, нужно разрешить каждому аналитику доступ только к определённым новостным источникам, в надежде на то, что эффекты шумов будут нейтрализованы выборкой. В реальной жизни мы полагаемся на множество источников (никогда не доверяйте единственному обзору на Amazon). Интуитивно нам близка не только идея дерева решений, но и комбинирование их в случайный лес.

Алгоритм Random Forest на практике

Настало время реализовать алгоритм случайного леса на языке Python с использованием Scikit-Learn. Вместо того чтобы работать над элементарной теоретической задачей, мы используем реальный набор данных, разбив его на обучающий и тестовый сеты. Тестовые данные мы используем для оценки того, насколько хорошо наша модель справляется с новыми данными, что поможет нам выяснить уровень переобучения.

Набор данных

Мы попробуем рассчитать состояние здоровья пациентов в бинарной системе координат. В качестве параметров мы используем социально-экономические и персональные характеристики субъектов. В качестве меток мы используем 0 для плохого здоровья и 1 для хорошего. Этот набор данных был собран Центром по Контролю и Предотвращению Заболеваний и размещён в свободном доступе.

Как правило 80 % работы над научным проектом заключается в изучении, очистке и синтезировании параметров из сырых данных (подробнее узнать можно здесь). Однако в этой статье мы сосредоточимся на построении модели.

В данном примере мы сталкиваемся с задачей несбалансированной классификации, поэтому простой параметр точности модели не отобразит истинной её производительности. Вместо этого мы используем площадь под кривой операционных характеристик приёмника (ROC AUC), измерив от 0 (в худшем случае) до 1 (в лучшем случае) со случайным прогнозом на уровне 0,5. Мы также можем построить указанную кривую, чтобы проанализировать модель.

В этом Jupyter notebook содержатся реализации и дерева решений, и случайного леса, но здесь мы сфокусируемся на последнем. После получения данных мы можем создать и обучить этот алгоритм следующим образом:

from sklearn.ensemble import RandomForestClassifier

# Создаём модель леса из сотни деревьев
model = RandomForestClassifier(n_estimators=100, 
                               bootstrap = True,
                               max_features = 'sqrt')
# Обучаем на тренировочных данных
model.fit(train, train_labels)

После нескольких минут обучения модель будет готова выдавать прогнозы для тестовых данных:

# Действующая классификация
rf_predictions = model.predict(test)
# Вероятности для каждого класса
rf_probs = model.predict_proba(test)[:, 1]

Мы рассчитаем прогнозы классификации (predict) наряду с прогностической вероятностью (predict_proba), чтобы вычислить ROC AUC.

from sklearn.metrics import roc_auc_score

# Рассчитываем roc auc
roc_value = roc_auc_score(test_labels, rf_probs)

Результаты

Итоговое тестирование ROC AUC для случайного леса составило 0.87, в то время как для единичного дерева с неограниченной глубиной — 0.67. Если вернуться к результатам обработки тренировочных данных, обе модели покажут эффективность, равную 1.00 на ROC AUC. Этого и следовало ожидать, ведь мы предоставили готовые ответы и не ограничивали максимальную глубину каждого дерева.

Несмотря на то, что случайный лес переобучен (показывает на тренировочных данных лучшую производительность, чем на тестовых), он всё же гораздо больше способен к обобщениям, чем одиночное дерево. При низкой вариативности (хорошо) случайный лес наследует от одиночного дерева решений низкую склонность к погрешности (что тоже хорошо).

Мы можем визуализовать кривую ROC для одиночного дерева (верхняя диаграмма) и для случайного леса в целом (нижняя диаграмма). Кривая лучшей модели стремится вверх и влево:

Случайный лес значительно превосходит по точности одиночное дерево.

Ещё один способ оценить эффективность построенной модели — матрица погрешностей для тестовых прогнозов.

На диаграмме верные прогнозы, сделанные моделью, отображаются в верхнем левом углу и в нижнем правом, а неверные в нижнем левом и верхнем правом. Подобные диаграммы мы можем использовать, чтобы оценить, достаточно ли проработана наша модель и готова ли она к релизу.

Значимость параметра

Значимость параметра в случайном лесу — это суммарное уменьшение загрязнения Джини во всех узлах, использующих этот параметр для разделения. Мы можем использовать это значение для определения опытным путём, какие переменные более всего принимаются во внимание нашей моделью. Мы можем рассчитать значимость параметров в уже обученной модели и экспортировать результаты этих вычислений в Pandas DataFrame следующим образом:

import pandas as pd

# Извлекаем значимость параметров
fi = pd.DataFrame({'feature': list(train.columns),
                   'importance': model.feature_importances_}).\
                    sort_values('importance', ascending = False)

# Выводим значения
fi.head()

    feature	   importance
    DIFFWALK	   0.036200
    QLACTLM2	   0.030694
    EMPLOY1	   0.024156
    DIFFALON	   0.022699
    USEEQUIP	   0.016922

Значимость параметра даёт лучшее понимание задачи, показывая, какие переменные лучше всего разделяют набор данных на классы. В данном примере переменная DIFFWALK, отображающая, что пациент испытывает затруднения при ходьбе, является самым значимым параметром.

Рассматриваемая величина может также использоваться для синтезирования дополнительных параметров, объединяющих несколько наиболее важных. При отборе параметров их значимость может указать на те, которые можно удалить из набора данных без ущерба производительности модели.

Визуализация единичного дерева леса

Мы также можем визуализовать единичное дерево случайного леса. В данном случае нам придётся ограничить его глубину, иначе оно может оказаться слишком большим для преобразования в изображение. Для этого изображения глубина была ограничена до 6 уровней. Результат всё равно слишком велик, однако, внимательно его изучив, мы можем понять, как работает наша модель.

Следующие шаги

Следующим шагом будет оптимизация случайного леса, которую можно выполнить через случайный поиск, используя RandomizedSearchCV в Scikit-Learn. Оптимизация подразумевает поиск лучших гиперпараметров для модели на текущем наборе данных. Лучшие гиперпараметры будут зависеть от набора данных, поэтому нам придётся проделывать оптимизацию (настройку модели) отдельно для каждого набора.

Можно рассматривать настройку модели как поиск лучших установок для алгоритма машинного обучения. Примеры параметров, которые можно оптимизировать: количество деревьев, их максимальная глубина, максимальное количество параметров, принимаемых каждым узлом, максимальное количество образцов в листьях.

Реализацию случайного поиска для оптимизации модели можно изучить в Jupyter Notebook.

Полностью рабочий образец кода

Приведённый ниже код создан с помощью repl.it и представляет полностью рабочий пример создания алгоритма случайного леса на Python. Можете самостоятельно его запустить и попробовать поэкспериментировать, изменяя код (загрузка пакетов может занять некоторое время).

Заключение и выводы

Хотя мы действительно можем создавать мощные модели машинного обучения на Python, не понимая принципов их работы, знание основ позволит работать более эффективно. В этой статье мы не только построили и использовали на практике алгоритм случайного леса, но и разобрали, как работает эта модель.

Мы изучили работу дерева принятия решений, элемента, из которого состоит случайный лес, и увидели, как можно преодолеть высокую вариативность единичного дерева, комбинируя сотни таких деревьев в лес. Случайный лес работает на принципах случайной выборки образцов, случайного набора параметров и усреднения прогнозов.

В этой статье мы разобрали следующие ключевые концепции:

  1. Дерево принятия решений: интуитивная модель, которая принимает решения на основе последовательности вопросов, относящихся к значениям параметров. Характеризуется низкой погрешностью и высокой вариативностью, что ведёт к переобучению на тренировочных данных.
  2. Загрязнение Джини: величина, которую дерево решений стремится минимизировать при разделении каждого узла. Представляет возможность того, что случайно выбранный образец будет неверно классифицирован в определённом узле.
  3. Бутстреппинг: выборка случайных наборов образцов с возмещением.
  4. Случайный поднабор параметров: выборка случайных параметров для разделения каждого узла дерева решений.
  5. Случайный лес: сборная модель из множества деревьев решений, использующая бутстреппинг, случайные поднаборы параметров и усреднение полученных от всех деревьев прогнозов. Является частным случаем сборной модели, использующей бэггинг.
  6. Компромисс между вариативностью и погрешностью: ключевая проблема машинного обучения. Заключается в поиске баланса между моделями с высокой гибкостью (высокой вариативностью), которые отлично обучаются на тренировочных данных, но мало способны к обобщению на новых данных, и ригидными моделями (с высокой погрешностью), которые плохо обучаются на тренировочных сетах. Случайный лес уменьшает вариативность одиночного дерева решений, что позволяет модели лучше воспринимать новые данные.

Перевод статьи An Implementation and Explanation of the Random Forest in Python

Решающий анализ рынка

*Необходимые

Неправильное выражение *Необходимые

*Необходимые Выберите страну: Афганистан (+93) Албания (+355) Алжир (+213) Американское Самоа (+ 1-684) Андорра (+376) Ангола (+244) Ангилья (+ 1-264) Антарктика (+ 672) Антигуа и Барбуда ( + 1-268) Аргентина (+54) Армения (+374) Аруба (+297) Австралия (+61) Австрия (+43) Азербайджан (+994) Багамы (+ 1-242) Бахрейн (+973) Бангладеш (+ 880) Барбадос (+ 1-246) Беларусь (+375) Бельгия (+32) Белиз (+501) Бенин (+229) Бермудские острова (+ 1-441) Бутан (+975) Боливия (+591) Босния и Герцеговина ( +387) Ботсвана (+267) Остров Буве (+55) Бразилия (+55) Британская территория в Индийском океане (+246) Бруней-Даруссалам (+673) Болгария (+359) Буркина-Фасо (+226) Бурунди (+257) Камбоджа (+855) Камерун (+237) Канада (+1) Кабо-Верде (+238) Каймановы острова (+ 1-345) Центральноафриканская Республика (+236) Чад (+235) Чили (+56) Китай (+86) Остров Рождества (+61) Кокосовые острова (Килинг) острова (+61) Колумбия (+57) Коморские острова (+269) Конго (+242) Острова Кука (+682) Коста-Рика (+506) Хорватия (+385) Куба (+ 53) Кипр (+357) Чешская Республика (+420) Дания (+45) Джибути (+253) Доминика (+ 1-767) Доминиканская Республика (+ 1-809 и) Восточный Тимор (+670) Эквадор (+593) Египет (+20) Сальвадор (+503) Экваториальная Гвинея (+240) Эритрея (+291) Эстония (+372) Эфиопия (+251) Фолклендские (Мальвинские) острова (+500) Фарерские острова (+298) Фиджи (+ 679) Финляндия (+358) Франция (+33) Метрополитен Франции (+33) Французская Гвиана (+594) Французская Полинезия (+689) Южные территории Франции (+33) Габон (+241) Гамбия (+220) Грузия (+ 995) Германия (+49) Гана (+233) Гибралтар (+350) Гернси (+44) Греция (+30) Гренландия (+299) Гренада (+ 1-473) Гваделупа (+590) Гуам (+ 1-671 ) Гватемала (+502) Гвинея (+224) Гвинея-Бисау (+245) Гайана (+592) Гаити (+509) Острова Херда и Макдональда (+6723) Гондурас (+504) Гонконг (+852) Венгрия ( +36) Исландия (+354) Индия (+91) Остров Мэн (+ 44-1624) Индонезия (+62) Иран (+98) Ирак (+964) Ирландия (+353) Израиль (+972) Италия (+ 39) Кот-д’Ивуар (+225 ) Джерси (+ 44-1534) Ямайка (+ 1-876) Япония (+81) Иордания (+962) Казахстан (+7) Кения (+254) Кирибати (+686) Корейские демократические народы (+850) Республика Корея (+82) Косово (+ 383) Кувейт (+965) Кыргызстан (+996) Лаосская Народно-Демократическая Республика (+856) Латвия (+371) Ливан (+961) Лесото (+266) Либерия (+231) Ливийская Арабская Джамахирия (+218) Лихтенштейн (+423) Литва (+370) Люксембург (+352) Макао (+853) Македония (+389) Мадагаскар (+261) Малави (+265) Малайзия (+60) Мальдивы (+960) Мали (+223) Мальта (+356) Маршалловы Острова (+692) Мартиника (+596) Мавритания (+222) Маврикий (+230) Майотта (+262) Мексика (+52) Микронезия (+691) Молдова (+373) Монако (+377) Монголия (+976) Черногория (+382) Монтсеррат (+ 1-664) Марокко (+212) Мозамбик (+258) Мьянма (+95) Намибия (+264) Науру (+674) Непал (+ 977) Нидерланды (+31) Нидерландские Антильские острова (+599) Новая Каледония (+687) Новая Зеландия (+64) Никарагуа (+505) Нигер (+227) Нигерия (+234) Ниуэ (+6 83) Остров Норфолк (+672) Северные Марианские острова (+ 1-670) Норвегия (+47) Оман (+968) Пакистан (+92) Палау (+680) Палестина (+970) Панама (+507) Папуа-Новая Гвинея (+675) Парагвай (+595) Перу (+51) Филиппины (+63) Питкэрн (+870) Польша (+48) Португалия (+351) Пуэрто-Рико (+ 1-787 и) Катар (+974) Реюньон ( +262) Румыния (+40) Российская Федерация (+7) Руанда (+250) Сент-Китс и Невис (+ 1-869) Сент-Люсия (+ 1-758) Сент-Винсент и Гренадины (+ 1-784) Самоа ( +685) Сан-Марино (+378) Сан-Томе и Принсипи (+239) Саудовская Аравия (+966) Сенегал (+221) Сербия (+381) Сейшельские острова (+248) Сьерра-Леоне (+232) Сингапур (+65) Словакия (+421) Словения (+386) Соломоновы Острова (+677) Сомали (+252) Южная Африка (+27) Южная Георгия Южные Сандвичевы острова (+995) Испания (+34) Шри-Ланка (+94) Ст.Елена (+290) ул. Пьер и Микелон (+508) Судан (+249) Суринам (+597) Острова Шпицберген и Ян-Майен (+47) Свазиленд (+268) Швеция (+46) Швейцария (+41) Сирийская Арабская Республика (+963) Тайвань ( +886) Таджикистан (+992) Танзания (+255) Таиланд (+66) Того (+228) Токелау (+690) Тонга (+676) Тринидад и Тобаго (+ 1-868) Тунис (+216) Турция (+ 90) Туркменистан (+993) Острова Теркс и Кайкос (+ 1-649) Тувалу (+688) Уганда (+256) Украина (+380) Объединенные Арабские Эмираты (+971) Великобритания (+44) США (+1 ) Внешние малые острова США (+1) Уругвай (+598) Узбекистан (+998) Вануату (+678) Ватикан (+379) Венесуэла (+58) Вьетнам (+84) Виргинские острова (Британские) (+1 -284) Виргинские острова (U.S.) (+ 1-340) Острова Уоллис и Футуна (+681) Западная Сахара (+212) Йемен (+967) Югославия (+38) Заир (+243) Замбия (+260) Зимбабве (+263)

*Необходимые

*Необходимые

*Необходимые

4919

Решающий момент в истории университета

В этом месяце кампус отмечает 50-ю годовщину двух столкновений (2 марта и снова 9 марта) на Франклин-стрит и Маккоркл-плейс из-за печально известного закона штата о запрете спикеров.Закон, принятый Генеральной Ассамблеей тремя годами ранее, запрещал известным коммунистам и другим лицам, считающимся подрывными, выступать в университетах, поддерживаемых государством. Джок Лаутерер, в то время фотограф The Daily Tar Heel, запечатлел драму тех дней двумя знаковыми фотографиями, сделанными на его верную камеру Rolleicord времен Второй мировой войны. Сейчас Лаутерер, старший преподаватель Школы СМИ и журналистики, рассказывает о том, как он получил одну из этих фотографий, взобравшись на дерево. Среди сотен студентов в толпе, запечатленных на широком плане Лаутерера, была одноклассница Линн Вернон-Фиганс.Ни один из них не знал, что это культовое фото станет частью их неожиданной истории любви 28 лет спустя. Вернон-Фиганс, ныне преподаватель педагогической школы и Центра развития ребенка Фрэнка Портера Грэма, рассказывает эту историю.

«Удача — это остаток дизайна».
— Бранч Рики, генеральный директор Brooklyn Dodgers

Оглядываясь на ту фотографию, сделанную 50 лет назад в этом месяце, я понимаю, что мне просто повезло.

Повезло, что родилась у матери с фотоаппаратом, родившейся в общине, которая воспитывала маленького мальчика с Kodak, родился в эпоху, богатую новостными событиями, происходящими прямо перед моим объективом, и родился сыном Университета — где, В пасмурный мартовский день у старой каменной стены возле Маккоркл-плейс события пересеклись и сговорились, чтобы помочь мне составить образ одного из самых решающих моментов в истории нашего университета.

f / 8 и будь там

Будучи студентом в 60-х, моя жизнь вращалась вокруг Daily Tar Heel (также известного как самое дешевое братство в кампусе).Обладая легким доступом, обеспечиваемым полномочиями прессы, мне удалось сфотографировать многих политических икон нашей эпохи: президентов Кеннеди и Джонсона, губернаторов Северной Каролины Дэна Мура и Роберта Скотта, генерального прокурора США Роберта Ф. Кеннеди, губернатора Алабамы Джорджа Уоллеса и кандидат в президенты Хьюберт Х. Хамфри.

В те неспокойные дни казалось, что люди всегда были на улицах Чапел-Хилл, демонстрируя какую-то причину, будь то за гражданские права или против войны во Вьетнаме.Они также протестовали против печально известного Закона о запрете спикеров — вопиющего нарушения свободы слова и оскорбления всего, что олицетворяет великий государственный университет.

По необходимости молодой фотограф должен был научиться лучше всего освещать эти последние новости. Во время марша за гражданские права по Франклин-стрит велосипед позволил мне остаться в тени. Митинг клана потребовал аккомпанемента самого крутого репортера DTH, Майка Йоппа, чтобы вмешаться для меня. А для больших статических демонстраций я научился искать из окон офиса на втором этаже вид с воздуха, чтобы запечатлеть «общую картину».

DTH, гордо независимая тогда, как и сейчас, взяла свое редакторское плечо прямо за руль этих движений — особенно противников Закона о запрете спикеров. Неслучайно имя редактора DTH Эрни МакКрари высечено на латуни на маркере кампуса в честь студенческих лидеров протестного движения Закона о запрете спикеров.

Как я получил фотографию

Как и многие молодые журналисты DTH, я жил, дышал, ел, пил и спал студенческую газету, которая затем находилась в стайке старых офисов наверху в Мемориале Грэма.Темная комната в подвале, которая использовалась совместно с ежегодником, нашим конкурирующим изданием, была полностью разрушена. Итак, на первом курсе, после двух лет съемок для DTH, я устроил собственную темную комнату в гараже своей квартиры на Хендерсон-стрит — вонючей, мерзкой, неотапливаемой, без кондиционера и без вентиляции. Но это было мое. Я люблю это.

И он был стратегически расположен прямо напротив Маккоркл Плейс.

Итак, когда днем ​​2 марта 1966 года из окна наверху я заметил толпу, собирающуюся на стороне кампуса старой каменной стены, выходящей на Франклин-стрит, я понял, что мне нужно делать.Я хотел показать размах толпы, самый большой из тех, что я когда-либо видел в кампусе. Но стрелять через улицу было бы бесполезно; Пришлось подойти ближе. Спеша вниз и через Франклина я осмотрел место происшествия.

Где будет стоять оратор, Фрэнк Уилкинсон? И, что наиболее стратегически, где сидел президент Студенческого совета Пол Диксон? Это определенно было бы золотым пятном.

Я был старым скалолазом из детства. Я взобрался на удобное дерево, чтобы получить вид под углом к ​​происходящему под моим Rolleicord времен Второй мировой войны.

Неделю спустя, 9 марта, Лаутерер сфотографировал противостояние между спикером Гербертом Аптекером и полицией кампуса.

B + в лучшем случае

Если бы сегодня один из моих студентов-фотохудожников сдал этот снимок для моего урока начинающей фотожурналистики, я бы прокомментировал: «Неплохо» мой код для B.

Свет хороший, я дам ТЫ это. Красивый, ровный, рассеянный ровный свет. Идеально подходит для черного и белого.

Композиция квадратная; не самое артистичное обрамление. Сильная диагональная линия стены обладает приятной энергетикой.Я дам молодому фотографу 66-го года балл за этот элемент дизайна.

Но фотография действительно не отражает пик действия, энергию момента. Итак, он получает B.

Тогда почему, я должен спросить, это изображение стало локальным значком?

Фотография не очень хорошая. Но момент, когда он захватывает, есть.

Изображение имеет стойкость, потому что оно знаменует решающий момент в истории нашего штата, улавливает чувство гравитации и передает ощущение того, что он чувствовал, когда земля двигалась под травой Маккоркл Плейс.

И лица в толпе.

Пол Диксон, который так умело вел борьбу, хлопал в ладоши от заслуженного удовлетворения; будущий декан педагогической школы Билл МакДиармид задумчиво стоит сзади; Вестники DTH Джо ДеПрайст, Скотт Гудфеллоу, Трева Митчелл и Кэрол Галлант выжидающе наблюдают за происходящим.

И лицо «студентки», с которой я встречусь 27 лет спустя и выйду замуж… (но я позволю кому-нибудь другому рассказать эту историю).

И сотни других студентов и преподавателей, застывшие во времени и эмуляции, пришли сюда из беспокойства или любопытства, гнева или беспокойства.Как бы говоря, находясь здесь, в нашем кампусе, на нашей территории, игнорируя этот предосудительный закон: вы должны слышать наши голоса.

Слушайте, судьи и законодатели.

Слушайте, люди из Северной Каролины.

Слушай, звук.

«Щелкните».

Подробнее о Законе о запрете спикеров:

Быть решительным

Вам, как руководителю проекта, часто придется принимать решения. То, как вы их делаете, действительно показывает разницу между любителем и профессионалом в области управления проектами (PMP) ® .В первые дни вы, вероятно, полагались на инстинкт или делали выбор, основываясь только на том, что Вариант-1 имеет более красивое покрытие, чем Вариант-2. Но теперь, когда у вас есть сертификат PMP ® , вы должны убедиться, что каждое ваше решение основано на объективном анализе.

Анализ ожидаемой денежной стоимости — отличный инструмент, который поможет вам принимать решения. Несмотря на то, что он введен в ваше обучение PMP ® как часть количественного анализа рисков, он также может помочь в принятии самых разных решений.Однако важно понимать, что этот метод организует информацию за вас; он не предоставляет вам исходных данных, на которых основывается решение.

Например, предположим, что мы компания-разработчик программного обеспечения и определили потребность в конкретном типе программы. Мы будем использовать это только для внутренних целей, поэтому потенциального дохода не будет. У нас есть сотрудники, которые могут выполнить эту работу, но у других компаний-разработчиков программного обеспечения есть продукты такого типа на полке. Таким образом, мы должны принять классическое решение: производить или покупать.

Мы можем использовать дерево решений для построения нашего анализа:


«Сделать или купить» — это решение, которое мы должны принять. Это «Определение решения» в соответствии с Руководством к Своду знаний по управлению проектами ( PMBOK ® Guide ). Черный квадрат обозначает «Узел решения». Справа от узла решения находятся варианты, которые у нас есть: «Разработка нового программного обеспечения» или «Приобретение пакета программного обеспечения».

Что нам нужно сделать сейчас, так это стоимость двух вариантов.Это сложнее, чем кажется. Некоторые составляющие стоимости легко указать, и они представляют собой определенные затраты. В этом примере следует четко определить стоимость покупки пакета. Однако, прежде чем мы сможем предоставить какую-либо оценку стоимости сборки, нам необходимо провести некоторое планирование. Нам нужно определить, сколько людей потребуется, чтобы над этим работать и как долго.

Этот уровень анализа даст нам две цифры, и мы должны выбрать меньшее из двух. Итак, если мы определим, что разработка программного обеспечения будет стоить 5000 евро, а покупка готового программного обеспечения — 1000 евро, то решение будет очевидным.

Или нет? Это своего рода упрощенный анализ, из-за которого неосмотрительные руководители проектов попадают в беду. Нам нужно оценить общую стоимость владения. Как долго нам понадобится это программное обеспечение? Сколько взимают поставщики за контракты на поддержку? Каковы шансы, что нам понадобится эта поддержка? Каковы шансы, что пакет действительно сделает то, что мы хотим? И каковы будут последствия, если он не оправдает ожиданий?

Точно так же, если мы пойдем по маршруту строительства, каковы альтернативные издержки инвестирования в этот проект? Можно ли было бы лучше использовать наших людей для других задач? Точно так же насколько хороша наша оценка? Предположим, половина наших девелоперских проектов превышает свой бюджет в среднем на 20%, как это повлияет на наше решение?

Такое мышление приводит нас к добавлению «узлов вероятности» к нашей диаграмме дерева решений:


Предположим, что нет альтернативных издержек — для этого разработчиков не снимают с других проектов — на самом деле, этот небольшой проект позволит им с пользой трудоустроиться до их следующих больших заданий.Тогда единственное, о чем нам нужно беспокоиться, — это вероятный перерасход средств, в результате которого ожидаемая стоимость может достигнуть 6000 евро. Существует равная денежная вероятность того, что это будет превышено (т.е. вероятность 0,5), и в прошлом среднее превышение составляло 20% (в данном случае 1000 евро). Таким образом, вероятный перерасход умножается на его вероятность и прибавляется к исходному значению.

Преимущество создания продукта собственными силами проявляется, когда дело касается поддержки. Мы можем включить этот продукт в состав других продуктов, которые мы предоставляем, и рассчитывать на поддержку как на часть накладных расходов, которые мы учитываем в нашем бюджете.Если это не так, тогда поддержка должна быть четко рассчитана и включена в бюджет развития. Однако решение о покупке означает, что поддержка требует серьезного внимания!

С любым продуктом очень велика вероятность, что он вообще не будет работать. Этот риск необходимо снизить, тщательно изучив продукт перед покупкой. Поразительно, сколько программного обеспечения покупается и никогда не используется по каким-то причинам. Например, продукт может показаться идеальным во время демонстрации, но совершенно не подходит, когда его просят обработать большие объемы данных.В нашем примере мы считаем, что это один из четырех шансов, что это произойдет, и наш план на случай непредвиденных обстоятельств заключается в разработке собственными силами. Чтобы учесть это, нам нужно добавить 0,25 от 5000 евро к опции покупки.

Другая возможность — необходимость в поддержке. Многие софтверные компании очень высоко оценивают свои продукты, но зарабатывают деньги на соглашениях об обслуживании. Здесь обещают обновления и исправления ошибок. Это очень привлекательно, если данное изделие будет эксплуатироваться долгое время. В нашем примере контракт на техническое обслуживание на один год составляет 500 евро.Если мы планируем использовать это только в течение года (или меньше), мы можем рискнуть, что нам не понадобится поддержка. Однако мы всегда можем подписать соглашение на год, если у нас возникнут проблемы. Отображение всего этого на дереве решений дает:

Теперь мы можем рассчитать относительную стоимость двух вариантов следующим образом:

Благодаря анализу ожидаемой денежной стоимости мы теперь видим, что решение о производстве или покупке не так однозначно, как казалось изначально.При нормальном ходе событий альтернативные издержки могут подорвать аргументы в пользу строительства собственного предприятия — например, команда может быть настроена на работу над проектом, который вместо этого приносит доход. Еще один фактор, который мы не учли, — это чистая приведенная стоимость. Если бы пакет программного обеспечения был очень дорогим, первоначальные затраты могли бы сделать постепенное потребление ресурсов варианта сборки более привлекательным, особенно когда банки не кредитуют.

В обоих случаях очень важно учитывать общую стоимость владения.В этом примере, если мы решим заключить соглашение об обслуживании, мы потратим на обслуживание столько же, сколько и на исходный продукт через два года. Мы также удобно возложили внутреннее обслуживание на накладные расходы всей компании. Если кто-то должен быть доступен для поддержки, эта стоимость должна быть учтена в анализе.

Важно понимать, что PMP ® принимает решения, основываясь на объективных фактах, а не на внешности. Хотя этот пример показывает, что начальных цифр было достаточно для принятия решения, дальнейший анализ приблизил эти две цифры.В других случаях подробный анализ затрат докажет, что о книгах нельзя судить по обложкам.

Если вы хотите узнать больше о Decision Tress и других инструментах и ​​методах управления проектами, а также о различных вариантах сертификации, доступных вам, посетите нашу страницу обучения. Наши курсы по управлению проектами проводятся онлайн с использованием нашего виртуального класса, так что вы можете пройти курс, не выходя из собственного дома. Для получения более подробной информации свяжитесь с нами напрямую.

Окончательная решающая битва за Землю / Древо мощи

Окончательная решающая битва за Землю / Древо могущества

Японское (настоящее) название: Окончательная решающая битва за Землю
Американское название: Древо могущества
Фильм №: # 3
Злодей: Телец / Turles
имеет место: не занимает место в серии

Фильм начинается с кемпинга Гохана, Булмы и Криллина в лесу.Немногое происходит, но позже мы перейдем к середине истории.

В космосе находится космический корабль. На борту около пяти пришельцев. Они смотрят на Землю издалека. В задней части космического корабля сидит парень, он говорит, что Какоррот провалил свою миссию. Затем они отправляют робота вниз.

Робот приземляется, но остается на месте. Но когда он приземлился, лес загорелся! Гохан и Криллин работают быстро и получают энергию, чтобы потушить пламя. Им это удается.Однако сейчас лес полностью уничтожен, и ни у кого из животных нет дома. Гохан встречает дружелюбного маленького дракона. Криллин и Гохан спрашивают Бульму, могут ли они использовать Драконьи шары, чтобы вызвать Дракона, и пожелать вернуть лес таким, каким он должен был быть. Затем они используют Драконьи шары, чтобы вызвать Дракона, а Шенрон желает вернуть лес. Теперь Гохан становится другом дракона и называет его Икураусом.

На следующий день робот встает и начинает обыскивать местность. В доме Гоку Гоку и Гохан принимают ванну.В небе Ямча внутри нового, ох. . . эээ, парящую машину мы назовем. Он и Пуарр в нем кружат, пока маленький космический корабль не начнет лететь вниз. Ямча уклоняется, но теряет контроль над своей новой «парящей машиной» и разбивается. Пятеро парней с космического корабля выходят и сеют небольшое семя. Злое семя. Начинает прорастать огромное дерево.

В доме Гоку за столом сидят Гоку, Криллин, Гохан, Тиен, Чаузу и Ямча. Гохан учится. Король Кай на своей маленькой планете чувствует Древо Могущества и то, что на Землю приходит очень мощная сила.Он рассказывает Гоку и остальным Z Warriors о дьявольском плане пришельцев. Древо Могущества — это дерево, которое использует энергию и питательные вещества всей планеты, чтобы приносить плоды. Плод придает большую силу. Гоку и другие должны остановить это, потому что Земля превратится в одну большую пустыню, если они этого не сделают. Гоку и остальные уходят. Гохан собирается уйти, но Чи Чи хватает его и говорит не уходить.

Гоку, Криллин, Тиен, Ямча и Чаузу теперь достигают области, где находится Древо Могущества.Они поражены тем, что дерево может быть таким огромным. Гоку, Тиен и Криллин используют Камехамеха, Чаузу использует обычный удар ки, а Ямча выполняет одну из своих мощных атак. Атаки не действуют на дерево. Гоку и остальные начинают взлетать выше. Видят пять воинов. Начинается грандиозная битва. Друзья Гоку, кажется, одержали верх. Теперь Гохан покидает свой дом, чтобы тайно присоединиться к отцу.

На космическом корабле противника лидер все еще на борту. Человек, который был сзади, все еще смотрит битву.Он видит Гохана. Компьютер говорит, что у Гохана уровень мощности 10 000. Теперь этот человек знает, что он сын Какоррота. Мужчина решает вступить в бой.

На поле боя продолжается битва, но победителя еще нет. Тьен использует свою полезную солнечную вспышку. Krillin использует Destructo Disc, а все остальные делают то, что могут. Гохан выходит на поле битвы. К нему подходит человек с космического корабля. Гохан думает, что он его отец, потому что он выглядит в точности как Гоку. Гохан приглядывается и понимает, что он не его отец.Имя человека — Тюрлес, сайянец. Терлес говорит, что он похож на своего отца, потому что они происходят из одной планеты и одной расы. Turles начинает избивать Гохана. Затем разведчик Турлеса говорит, что поблизости есть кто-то с уровнем мощности около 18000. Терлес бросает Гохана. Человек с уровнем 18000 — это не кто иной, как Пикколо, который ловит Гохана. Пикколо недостаточно силен, чтобы победить Турлеса. Piccolo теперь пытается использовать Makankosappo / Beam Cannon. Пикколо промахивается, а затем его сильно избивают.

Turles теперь видит хвост Гохана.Turles бросает искусственный лунный шар, и Гохан превращается в Oozaru. Turles что-то делает с мячом, чтобы он не трансформировался. Гоку видит черепах. Озару Гохан, не зная, что делает, не может контролировать себя и нападает на Гоку. Оозару Гохан пытается убить Гоку. Гоку и Оозару Гохан падают в пещеру. Появляется Икураус. Озару Гохан вспоминает Икурауса и перестает атаковать Гохана. Гоку использует Синий диск и отрезает Гохану хвост. Гохан возвращается в свою первоначальную форму. Турлес и Гоку начинают драться.Их сила кажется равной. Но затем Турлес ест плод Древа Могущества !. Теперь Черепахи стали намного сильнее. Теперь он избивает Гоку. Гоку решает использовать Кайо Кен x 10! Но Гоку по-прежнему не такой быстрый и сильный, как Turles! Затем Гоку требуется время, чтобы сформировать Genki Dama / Spirit Bomb. Он бросает его в Turles. Turles быстро использует Super Energy Dama. Атаки поражают друг друга и взрываются. У Гоку теперь не осталось сил. Он падает на землю и чувствует себя так, будто подвел всю Землю. Гоку понимает, что Древо Могущества имеет внутри тонны энергии.Гоку использует эту энергию и создает еще одну Генки Дама! Он бросает его в Turles и убивает его. Turles улетает обратно в Древо Могущества, а Генки Дама все еще там. Genki Dama взрывается внутри Дерева, уничтожая Черепов и Древо Могущества. Гохан теперь обнаженный снаружи и разговаривает с Икураусом.

Практическое исследование видов Ekop в Камеруне

Перфорационные пластины и ямки на сосудах тропических лиственных пород являются типичными особенностями, позволяющими отмечать виды в пределах ботанического семейства.Это исследование направлено на выработку последовательной и надежной основы для четкого различия по анатомическим особенностям между различными видами древесины Экоп на основе обычной товарной номенклатуры. Перфорационные пластины и питтинг сосудов являются определяющими элементами для классификации вида. Действительно, несколько видов, эксплуатируемых под торговой маркой Ekop из-за их текстуры, цвета и рисунка деревянного декора, не принадлежат к одному таксономическому классу. Учитывая естественную структуру клеток и их межсосудистые ямки, наблюдаемые в ксилеме и флоэме, кажется, что перфорационные пластины и ямки сосудистых лучей являются решающими компонентами для классификации видов Ekop.Сорок три экземпляра древесины Экопа были собраны в лесах Эболова, Мбалмайо и Абонг Мбанг. Кроме того, было обнаружено 155 микроскопических срезов слайдов Ekop с как минимум 3 представителями идентифицированных видов. Так, макроскопические наблюдения через ручную лупу проводились на древесной моркови. Затем были проанализированы микроскопические срезы слайдов из первых 63 объектов списка Международной ассоциации анатомов древесины. Корреляции между элементами сосудов и другими основными характеристиками наблюдались посредством компонентного анализа.Четыре группы Ekop были дифференцированы путем сбора в каждом роде матрицы сходных характеристик по группировкам их сосудов, пластинам перфорации и углублениям сосудистых лучей. Табличный ключ использовался для дальнейшего определения идентичности видов Экоп. Это исследование позволяет распознать древесину Экоп вне дендрологических аспектов вегетативных и репродуктивных органов. Наконец, были определены несколько типичных черт, используемых для точного разграничения, для таксономической классификации в группе Экоп.

1. Введение

Согласно данным ITTO [1], производство древесины в тропической Африке увеличилось с 2012 по 2017 год, достигнув 6,7 млн. М. 3 в 2015 году. Камерун был третьим по величине экспортером тропической древесины и первым производителем в тропической Африке. с 1,2 млн м 3 в 2015 году [2]. Эта тенденция усилилась с передачей концессий на лесозаготовки азиатам, которые интересовались другими малоизвестными видами древесины в период с 2004 по 2012 год. Таким образом, исчезающие породы, такие как Экоп, получили выгоду от благоприятных торговых возможностей.Таким образом, переоценка их налогооблагаемой стоимости на безвозмездной основе, достигающей 85 450 франков КФА (131 евро) / м 3 , привела к увеличению цен на некоторые высокие породы древесины [3].

Пять видов, в том числе Tetraberlinia bifoliata (25 000 м 3 ), составили 72% от общего объема экспорта бревен в Камерун. Среди них 10 видов Ekop составили 19,23% от общего объема в 2015 и 2016 годах, из них Julbernadia pellegriniana (12%), Brachystegia cynometroides (5.5%) и другие виды экоп (1,73%) экспортных журналов, фигурирующих в национальной статистике [3].

Название Экоп происходит от этнических языков банту, охватывающих культурную территорию Фанг-Бети-Булу, и используется лесозаготовителями в Южном и Центральном регионах. Практика этнотаксономии среди жителей Центрально-Южного Камеруна основана на богатом наследии со знаниями о полезных растениях, которые не были официально кодифицированы [4].

Letouzey и Mouranche [5] выбрали произношение Ekop (читай Ekaup) от искателей древесины местных лесов для обозначения группы деревьев, идентифицируемых по общему внешнему признаку.Для него характерна гладкая или твердая кора, которая легко отделяется саблей. Также имеется прилегающая фиброзная «кожа», которую можно снять с внутренней стороны [6]. Они относятся к видам, принадлежащим примерно к пятнадцати родам семейства Leguminosae-Caesalpinioideae согласно Международной ассоциации тропических лесов (Association Technique Internationale des Bois Tropicaux) [7]. Местное название Экоп лучше определяет пилотные названия, чтобы различать различные виды, экспортируемые под этим рыночным ярлыком [8]. В Камеруне лесозаготовительные компании использовали набор различных видов экопов на основании их морфологического вида, а не их ботанической классификации [5].В самом деле, эти виды обладают четко переносимой таксономической идентичностью [9]. Например, в Габоне исследование, проведенное по идентификации комплекса видов Экоп или Андунг в девяти лесных концессиях, показало, что только 11% соответствуют описанным ботаническим видам [10].

Таким образом, распознавание таких видов только по вегетативным и репродуктивным органам (листьям, цветкам и плодам) оказалось затруднительным [11]. Более того, масса пиломатериалов затрудняет их распознавание, что делает идентификацию более достоверной.На рынке древесины сходство между лесами Экоп поразительно из-за дендрологической внешности и приводит к путанице в настоящем названии пород [12]. Таким образом, важно подтвердить с помощью других критериев идентификации с использованием характеристик древесины [13]. Некоторые начальные работы показали, что язвы сосудов и перфорационные пластины имеют решающее значение для подчеркивания сходных черт на видах. Итак, анализ отличительных признаков показал крошечные морфологические различия в расположении клеток [14].

В Камеруне Экоп насчитывает не менее 15 родов и 135 видов, присутствующих в различных лесных экосистемах.Для вида характерно морфологическое сходство с лесом [7]. Остается проблема согласованности в описании типичных характеристик судов с целью определения табличного ключа для этих видов [15]. Один из способов решить эту проблему — принять во внимание структуру древесины Ekop, демонстрирующую замечательную пористость, типичную окраску, высокое присутствие несептатных волокон и чередующихся или многоугольных ямок у большинства видов [16]. Действительно, эти типичные особенности, описанные в списке Международной ассоциации анатомов древесины, были решающими для их группировки и характеристики на основе анализа микроскопических срезов [17].

Это исследование направлено на выработку последовательной и надежной основы для четкого различия между различными видами экопов через анатомические особенности этой группы.

В частности, цель исследования заключалась в том, чтобы (i) определить конструкции сосудов, трахеид и волокон у видов Ekop (ii) создать ссылочный индекс для категоризации групп Ekop (iii) установить точные демаркационные признаки, позволяющие провести таксономическую классификацию в пределах группа Экоп

2. Материалы и методы
2.1. Материал
2.1.1. Участок исследования

Исследование проводилось в Камеруне с февраля по август 2017 года в географической зоне влажных и полустолиственных лесов, которая определена как зона распространения Экопа в Камеруне [5]. Место проведения исследований расположено между 2,31 ° и 5,79 ° северной широты и 8,94 ° и 16,1 ° восточной долготы (Рисунок 1). Виды, обитающие в этом районе, в основном эндемичны и характерны для леса Биафра [18].


2.1.2. Представление физического материала

Были изучены два типа образцов древесины: фрагменты ствола, взятые из твердой мозговой оболочки на живых деревьях или бревнах, и микроскопические срезы на предметных стеклах.Эти образцы Экоп были получены из лесных хозяйств в близлежащих населенных пунктах и ​​в некоторых местных лесах вокруг Мбалмайо и Абонг Мбанга. Его собирали с помощью дендрометрического шнека. Мы подготовили каждый фрагмент в 01 см 3 дерева с цилиндрическим сечением 20 мм после перфорации стоящих деревьев с географической привязкой или на древесине, находящейся в парке United Forests Камеруна в Эболове.

Для каждого собранного вида мы подготовили слайды для чтения анатомического профиля. 155 микроскопических срезов были сделаны для описания анатомических особенностей нашего образца.

2.2. Методы
2.2.1. План выборки

Различные дендрологические и ксилографические таблицы по флоре Камеруна были использованы для обозначения выбранных видов Экопа [19]. Выборка вида была определена в соответствии с распределением древостоя и картой вырубки Экопа (рис. 1). Использовалась рандомизированная выборка с 3 повторениями. Были исследованы сорок три образца ( n = 43) собранных образцов, представляющих не менее трех видов каждого из пятнадцати изученных родов.

2.2.2. Сбор данных

(1) Идентификация анатомических особенностей Ekop . Для полированных фрагментов ствола использовали 10-кратное увеличительное стекло, чтобы охарактеризовать первичное расположение ячеек на фрагментах древесины, полученных из образцов. Полученным кускам дерева придавали форму с использованием тонкого стального лезвия, пропитанного этанолом (30%), и пилы для получения трех деревянных плоскостей. Полученные слайды с микроскопическими срезами сравнивали с онлайн-базами данных Insidewood и коллекцией древесины этих пород Тервюренвуд [17].Наблюдение срезов на предметных стеклах под микроскопом проводилось в соответствии с руководством Международной ассоциации анатомов древесины [20]. Основное внимание было уделено повторяющемуся чтению первых шестидесяти трех основных анатомических особенностей.

(2) Категоризация образца Ekop . При получении основных характеристик изученных образцов и аутентификации типичных черт многих видов экопов мы выделили признаки, чтобы их можно было классифицировать с помощью ссылочного индекса. Цель состояла в том, чтобы сравнить наблюдения всех характеристик, выполненных на кернах материала, с данными, полученными в справочных базах данных.Таким образом, специфические признаки были проанализированы для данного вида путем исключения одной альтернативной переменной того же признака. Наконец, для этих пород была описана таблица с описанием текстуры древесины, полос и цвета.

(3) Таксономическая классификация группы Экоп . Общая номенклатура тропической древесины в ее издании 7 th была справочником, используемым для определения общих пилотных названий лесозаготовителей [21]. В этой системе торговое описание видов соответствует конкретным научным названиям.Исходя из этого, научное название относится к виду, который соответствует ботаническим особенностям и анатомии древесины. Правила классификации в различных семьях — это правила систематики (генетическая классификация APG III). Некоторые более ранние семейства классифицируются на новые на основе филогенетического сходства, основанного на дендрологических аспектах, но не совсем совпадают с другими по отличительным признакам [22].

2.2.3. Статистический анализ

Двести сорок три (243) наблюдения, сфокусированных на типичных характеристиках сосудистой ткани у различных видов экопов, были использованы для сравнения сходных микроскопических характеристик на разных уровнях [23].Для видов Ekop решающими в этом исследовании были 41 из 163 основных характеристик, внесенных Международной ассоциацией анатомических характеристик древесины. Полученные данные были обработаны с помощью процедуры многомерного анализа с двумя проекциями из программного обеспечения SPSS (версия 16.0.) Для корреляций между образцами Ekop. Критерий хи-квадрат Пирсона (χ 2 ) применялся для проверки полученных качественных переменных. Табличный ключ, который снизился за счет исключения похожих функций, позволил нам классифицировать различные группы Ekop [24].

3. Результаты
3.1. Характеристика микроскопических особенностей Ekop

Мы работали с 43 видами Ekop, принадлежащими к 15 родам с типичными особенностями их древесины (Рисунок 2). Восемьдесят пять процентов видов в этом образце происходят из Южного Камеруна с высоким потенциалом древесины. Остальные пятнадцать процентов прибыли из Центрального и Восточного регионов с низкой плотностью населения. Анализ микроскопических срезов, описанных для видов Ekop, показывает различные особенности сосудистой ткани.Для каждого рода есть типичный признак, представляющий собой маркер многих видов. Наблюдаются клетки паренхимы, обильные сосуды, диффузная структура и общая апотрахеальная аксиальная паренхима — некоторые из основных характеристик. Для девяноста пяти процентов образца видны размер межсосудистых ямок, длина волокон, толщина стенок, а также наличие кристаллов оксалата кальция и кремнистых тельцов в паренхиме. Осевое расположение паренхимы было обнаружено в трех формах, и в некоторых клетках присутствовали отложения.Эта паренхима, хотя и является маргинальной, как у Brachystegia laurentii , не считается кольцами роста.


3.2. Разработка справочного индекса для видов Ekop

Срезы, полученные от видов Ekop, показали особые анатомические особенности в отношении расположения и размера сосудов в соответствии с шестьюдесятью тремя первыми характеристиками списка Международной ассоциации анатомов древесины. По сорока одному параметру мы обнаружили типичные особенности сосудистой ткани различных видов экопов.Принимая во внимание перфорационные пластины и питтинговую ямку сосудов, разграничение основных черт на различных видах сильно подчеркивается. На перфорационных пластинах есть особые отметки, которые отличает разные виды Ekop по расположению и размеру. Наблюдения показали, что элементы судна имели решающее значение для построения референциального индекса. Случай Tetraberlinia sp хорошо иллюстрируется этими особенностями с выдающимися ямками по сравнению с другими изученными типами (Рисунок 3).


3.3. Таксономическая группа Ekop

Среди группы Ekop наблюдалось несколько сходств. Сосредоточившись на расположении сосудов и пористости древесины, мы разделили на четыре группы в зависимости от их рода. Многие анатомические особенности, такие как расположение сосудов, длина и связанные элементы, оставили некоторые образцы внешнего вида. Аналоговая структура была доказана между Tetraberlinia-Jubernadia, Brachystegia-Cynometra и Hymenostegia-Cynometra , тогда как Bikinia ближе к Aphanocalyx. Принимая во внимание уровень родства между разными родами, мы получили основные корреляции между значениями массы по отношению к зерну. Было получено четыре значения для классификации видов Ekop во многие группы. Tetraberlinia показала заметное отличие от других родов (Таблица 1).


Макролобий 0,058 брахистегии -0,595 Julbernadia -0,595 Plagiosiphon

Точки доверительного ряда
Род Стандартные отклонения Корреляция
1 0.071 0,058 0,137
Zenkerella 0,071 0,058 0,137
Либревиллеа 0,071 0,058 0,137
Монопеталантус 0,071 0,058 0,137
Бикиния 0.071 0,137
0,257 0,101
0,257 0,101
0,257 0,101 −0,595
Tetraberlinia 1.080 0,665 0,847
Amphimas 257 0,101 −0,595
Didelotia 0,071 0,058 0,137
Cymenotra 0,07 0,07 0,058 0,137
Hymenostegia 0,071 0,058 0,137

друг друга по микроскопическим характеристикам и ближайшим технологическим свойствам (табл. 2).В результате классификации, основанной на физическом сходстве сосудистых тканей, влияющем на механические и технологические свойства (плотность и твердость по Моннину), были выделены четыре группы.


Закрытый род Сходные виды Типичные пилотные названия

Julberlinia Ekibberlinia Ekibberlinia Tetraberlinia
Julbernadia bifoliolata

Plagiosiphon, Macrolobium и Talbotiella Plagisiphon multijugus G
Talbotiella batesii ч
Macrolobium brachystegioides Ekoussek

Hymenostegia, Brachystegia, Cynometra, Zenkerella

Librechia , anda 9020a DII

наги
Didelotia afzelii
брахистегии Laurentii Ekop evène
Julbernadia seretii
цинометра hankei Нганга

Didelotia, Bikinia, Amphimas, Cryptosepalum, и Monopetalanthus Didelotia brevipaniculata, Bikinia brevipaniculata, Bikinia letestui 3
4.Обсуждение

Разнообразие микроскопических характеристик Экоп позволило нам установить идентичность древесины Экоп. Существуют типовые схемы перфорационных пластин и питтинга сосудов. Действительно, основные признаки похожи по крайней мере на 95%, тем не менее, 3 неидентичных признака считаются маркерами у некоторых родов. Восемьдесят пять процентов (85%) наблюдаемых видов происходят из Южного Камеруна. Наконец, в Экопе структура древесины отличается высоким присутствием неразделенных волокон и альтернативных или многоугольных пунктировок у большинства видов.Эти результаты согласуются с данными, приведенными в [22] или исследованиях Bikinia, Aphanocalyx и Tetraberlinia [25].

Внутри изучаемого рода вторичные дендрологические особенности целевых пород, интегрированные в этот процесс идентификации древесины, повышают его надежность. Так, Tetraberlinia , относящаяся к белесому Экопу, имеет маркеры, аналогичные видам, считающимся красноватым Экопом. Для каждого рода есть типичные признаки, представляющие маркеры того, что подтверждает разнообразие их лесов, как описано в [26].

Расположение судов и межсосудовые ямы во многом схожи между этими четырьмя группами. Действительно, род Monopetalanthus настолько близок к Bikinia из-за биохимических признаков, необычных для Aphanocalyx и Tetraberlinia [27]. Эта разница более заметна у Tetraberlinia и намного меньше у Aphanocalyx. Большинство этих видов являются эндемиками с хорошо известным природоохранным статусом. Дифференциация видов в группе Экоп оказалась сложным процессом, учитывая много общего между ними.Анализ как наблюдаемых фрагментов ствола с помощью ручной лупы, так и микроскопических срезов деревянных предметных стекол привел к классификации экопов на четыре группы. Определение этих видов основано на статистическом анализе типичных особенностей питтинга и расположения сосудистых лучей. Действительно, микроскопический анализ особенностей древесины был необходим и дополнительным подходом для эффективной идентификации видов Экоп. Таким образом, описание группировки судов дает более подробную информацию о типичных особенностях и позволяет четко сфокусировать внимание на таксономической принадлежности Экопа.Наконец, создание табличного ключа для классификации Ekop важно для устранения некоторых недоразумений при идентификации на основе их физического наблюдения.

5. Заключение

Целью исследования было выявить последовательную и надежную основу для четкого различия между различными видами Экоп. Полученные данные показывают, что различные типичные признаки, такие как клетки паренхимы или перфорационные пластинки и ямки сосудистых лучей, представляют собой маркеры многих видов экопов. Кроме того, существуют типичные особенности, особенно на элементах судна, которые имеют решающее значение для разработки ссылочного индекса.Наконец, изучение структуры сосудов и пористости древесины помогает разделить четыре основные группы рода Ekop.

Паренхима и сосуды имели типичные черты, позволяющие четко разделить виды экопов. Это проявилось в виде трех форм осевого расположения паренхимы. На основе перфорационных пластин и питтинга сосудов мы разработали ссылочный индекс для категоризации групп Ekop. Наблюдаемое сходство между родами и маркерами Ekop позволило создать четыре таксономических классификационных группы.

Многие анатомические особенности, такие как расположение сосудов, длина и связанные элементы, оставили некоторые закономерности внешнего вида. Аналоговая рама зарекомендовала себя среди группы Ekop благодаря внешнему виду, механическим и технологическим свойствам.

В Камеруне 135 видов экоп были обнаружены в различных лесных экосистемах. Анализ особенностей древесины показал небольшие различия в морфологическом облике. Путаница, возникшая на рынке древесины, была разрешена описанием типичных признаков, особенно паренхимы и сосудов, с определенным табличным обозначением этих видов.

Эти результаты также позволяют проследить эту древесину и лучше сохранить находящиеся под угрозой исчезновения виды Экоп.

Доступность данных

Работа, представленная вашему вниманию, является оригинальной, а данные были получены после нескольких исследовательских миссий. Анализ этих данных дал результаты, представленные в этой статье.

Конфликт интересов

Авторы заявляют, что у них нет конфликта интересов.

Как быть более решительным, 7 советов, как улучшить свои навыки принятия решений

<Назад ко всем историям

Раскройте силу внутри

Лидерство — это принятие решений

Автор: Team Tony

Настоящее решение меняет жизнь как ничто другое.

Когда вы примете решение и по-настоящему привержены, вы сможете преодолеть все препятствия. Принимая решение, вы делаете заявление. Вы говорите миру: «Так оно и будет». Умение проявлять решительность выражает уверенность и харизму и является отличительной чертой настоящих лидеров.

Мы часто настолько захвачены желанием принять правильное решение, что в конечном итоге вообще не принимаем решения. Однако для того, чтобы научиться быть более решительным, требуются усилия и самоотверженность.Сколько раз вы думали про себя: «Я сделаю это» только для того, чтобы пересмотреть свое решение и в конечном итоге вообще отказаться от принятия решения?

Это не способ жить по жизни. Как говорит Тони Роббинс: «Ваша судьба формируется именно в моменты принятия решения» — и все мы хотим формировать наши собственные судьбы.

Могу ли я научиться быть более решительным?

Да, хорошая новость в том, что принятие решений — это навык, который можно практиковать.Как и любой другой навык, знание того, как быть решительным, дается одним людям более естественно, чем другим. Если вы обнаруживаете, что откладываете, чрезмерно анализируете или перекладываете на других, когда приходит время принимать решение, вам нужно сделать несколько шагов — начиная с вашего собственного мышления.

1. Преодолейте свои страхи

Вот секрет: если вы задаетесь вопросом, как стать более решительным, вероятно, вас сдерживает страх. Любое решение, каким бы незначительным оно ни было, означает какое-либо изменение, которое может привести к значительным изменениям в нашей жизни и жизнях людей, которые нам небезразличны.Этот страх перемен может поглотить вас и оказаться разрушительным, парализовав вас именно тогда, когда вам нужно проявить решительность. Как вы можете сломать этот негативный стереотип? Будьте открыты для перемен, а не бойтесь их. Признайте, что сама жизнь всегда меняется и что, принимая решение, даже когда вы не уверены в нем, вы берете под контроль свою собственную жизнь.

2. Прекратите чрезмерный анализ

Вы не одиноки — никто не может быть полностью уверен во всем. Те, кто научился быть решительным человеком, так же неуверенны или нервничают, как и вы; они просто хотят сделать выбор.Возможно, их решение окажется неправильным. И что? Они могут учиться на неправильном решении, и обычно они учатся быстро. Плохое решение приводит к лучшему в будущем, тогда как никакое решение вообще не ведет к стагнации. Ничего не станет лучше. Возможно, хуже не будет, но вы, конечно, не улучшите ситуацию, если будете сидеть на месте и ничего не делать. Со временем неспособность сделать выбор становится выбором сама по себе.

Истинное лидерство заключается в способности принимать решения, даже если вы не уверены, что они верны.Если вы хотите быть лидером — на работе, в своей жизни или где угодно — вы должны быть готовы быть решительными, даже если вы не знаете, какой путь правильный. Так что перестаньте слишком много думать и начните практиковать решительность!

3. Найдите наставника, который покажет вам, как быть более решительными

Часто то, что нам мешает принять решение, — это то, что мы чувствуем, что у нас нет всей необходимой информации. Одна вещь, которая может помочь вам перестать чрезмерно анализировать и почувствовать себя готовым принять решение, — это сбор этой информации.Не стесняйтесь задавать вопросы, переходить через проход и искать разные мнения. Чем больше у вас информации, тем лучше вы подготовлены ко всем результатам.

Лучшие лидеры стремятся к постоянному и непрекращающемуся совершенствованию, в том числе в своих навыках принятия решений. Наставник всегда готов ответить на ваши вопросы, помочь вам взять всю информацию и опыт, которые вы собрали, и превратить их в ценные навыки, которые вы можете использовать в будущем. Найти наставника необходимо тем, кто хочет научиться становиться более решительным.

4. Визуализируйте результаты

Визуализация часто используется для постановки и достижения целей, и вы можете применять те же концепции, когда учитесь, как стать более решительным. Просмотрите все имеющиеся у вас варианты и визуализируйте, что может случиться с каждым из них. Не думайте только о негативных результатах — думайте как о положительных, так и о нейтральных результатах. Составьте мысленный список «за» и «против» для каждого варианта. Эта стратегия не только поможет вам принять окончательное решение, но и заставит ваш разум быстрее принимать решения в будущем.

5. Принимайте меньшие решения

Единственный способ узнать, что вы стабильно продвигаетесь к желаемой жизни, — это использовать силу принятия решений. Это такая же мышца, как и любая другая, и сидение без дела, не заставляющее ее работать, не поможет ни ей — ни вам — вообще улучшиться. Но когда вы обязуетесь укрепить эту мышцу, вы обязуетесь научиться быть более решительным. Вскоре вы научитесь быть более решительным, даже не задумываясь об этом.

Попробуйте ограничить себя по времени, когда вы принимаете важное решение.Часто наши ранние порывы — наши лучшие, и мы часто знаем, что хотим сделать, всего через пять-десять минут. Однако, если решение действительно кажется важным, не останавливайтесь. Будьте решительны, разбив это решение на более мелкие. Вы даже можете создать дерево решений, которое проведет вас через каждый шаг, заставит делать паузу, обдумывать каждый меньший выбор и не поддаваться страху. Думая о важном решении как о серии более мелких, вы снимаете давление, чтобы вы могли выбирать с умом.

6.Не пытайся быть идеальным

Мы все слышали выражение «лучше готово, чем идеально». Это может быть особенно актуально для принятия решений. Успешные люди в любой сфере должны научиться быть решительными каждый день. У них такие же препятствия, как и у вас; однако они научились избегать стремления к совершенству — иногда «достаточно хорошо» уже идеально. Идеально — это еще один способ, которым страх контролирует ваш выбор.

Вместо того, чтобы сосредотачиваться на совершенстве, спросите себя, как это решение соотносится с вашим большим видением самого себя.Какой вариант приблизит вас к этой цели? Сможете ли вы смириться с последствиями, если все пойдет не так, как планировалось? Когда вы перестанете думать о них как о жизни или смерти и будете думать о них как о ступеньках и опыте обучения, желание принимать каждое решение идеальным исчезнет.

7. Ставьте смелую цель

Теперь, когда вы осознали свои страхи и имеете стратегии их преодоления, вы готовы двигаться вперед, ставя перед собой смелую цель. Подумайте о том, чего вы всегда хотели достичь для себя.Скорее всего, вас сдерживал страх. Сделайте своей миссией смело двигаться вперед, проявляя решительность и настраивая себя на успех.

Возможно, вы хотите удвоить продажи, но сопротивлялись постановке цели, потому что это казалось невозможным. Теперь, когда вы освободились от страха, вы можете осознать, что вам просто нужны правильные инструменты для работы. Возможно, для этого потребуется нанять нового директора по маркетингу или пересмотреть свою текущую стратегию. Что бы вы ни думали, используйте инструменты, которые вы узнали о том, как быть решительным.Помните, когда вы подкрепляете свои новые решения действием, вы высвобождаете гармонию. Если вы сумеете взять на себя это обязательство и выдержать его, для вас будет более полезным и менее пугающим быть решительным.

Научиться быть более решительным меняет жизнь, и это навык, которым вы можете овладеть. Стремитесь к большей решительности и более полноценной жизни, посещая Unleash the Power Within. Затем примените эти семь концепций к своей жизни и посмотрите, как ваши способности принимать решения положительно влияют на вашу карьеру, отношения и многое другое.

сад решающего леса в ботаническом парке Высокого Бретани, Испания Фотография, картинки, изображения и сток-фотография без роялти. Изображение 117870199.

Сад Решающего леса в Ботаническом парке Высокого Бретани, Италия Фотография, картинки, изображения и сток-фотография без роялти. Изображение 117870199.

Сад Решающего леса в Ботаническом парке Высоких Бретани — еловый лес вокруг пруда

S M L XL редактировать

Таблица размеров

Размер изображения Идеально подходит для
S Интернет и блоги, социальные сети и мобильные приложения.
M Брошюры и каталоги, журналы и открытки.
л Плакаты и баннеры для дома и улицы.
XL Фоны, рекламные щиты и цифровые экраны.

Используете это изображение на предмете перепродажи или шаблоне?

Распечатать Электронный Всеобъемлющий

5184 x 3456 пикселей | 43.9 см x 29,3 см | 300 точек на дюйм | JPG

Масштабирование до любого размера • EPS

5184 x 3456 пикселей | 43,9 см x 29,3 см | 300 точек на дюйм | JPG

Скачать

Купить одно изображение

6 кредитов

Самая низкая цена
с планом подписки

  • Попробуйте 1 месяц на 2209 pyб
  • Загрузите 10 фотографий или векторов.
  • Нет дневного лимита загрузок, неиспользованные загрузки переносятся на следующий месяц

221 ру

за изображение любой размер

Цена денег

Ключевые слова

Похожие изображения

Нужна помощь? Свяжитесь с вашим персональным менеджером по работе с клиентами

@ +7 499 938-68-54

Мы используем файлы cookie, чтобы вам было удобнее работать.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *