Gene prediction гена прогноз
Проблема розпізнавання
Алгоритми пошуку функцій генів:
Наприклад, сайти сплайсингу, ORF, починаючи метіоніну
Визначення нормативних регіонах важко
Статистичні розуміння генів продовжується
Завдання цього типу вимагають алгоритмів машинного навчання
Алгоритми передбачення генів намагаються визначити, чи є певна послідовність ДНК являє собою робочу ген. Параметри відмінності генів від nongenes не дуже добре зрозумів. Хоча деякі функції, такі як сайти сплайсингу і ORF, досить добре визначені, інші функції, такі як регуляторні області, як і раніше дуже важко передбачити. Навіть визначенні ORF, не є простим, особливо в геномах ссавців, які характеризуються невеликим екзонів і інтронів великий. Ще одна проблема в гені прогноз, що наші знання про виявленні особливостей в генах, постійно розширюється. Комп'ютер вчені класифікували б гена пророкування проблема в розпізнаванні образів. Алгоритми навчання машини гарні для вирішення задач розпізнавання образів, тому що вони можуть бути навчені на вибірці даних встановлена на "дізнатися", що визначає шаблон в питання, коли чітких правил не доступні.
33. Штучні нейронні мережі
Алгоритмів машинного навчання, які імітують мозку
Зв'язки між "нейронами" розрізняються по силі
Підключення ваг (Wij) зміни в той час як мережа піддається навчальної множини
Повністю підготовку мереж визнає картини в романі вхід
Штучні нейронні мережі відносяться до класу алгоритмів машинного навчання, які імітують поведінку реальних мережі нейронів у головному мозку. Типовий штучної нейронної мережі починається з вхідного шару, де моделі представлені в мережі для навчання і визнання. На слайді показаний приклад прямоточною нейронної мережі, названої так тому з'єднань йти тільки в одному напрямку. Одиниці у вхідному шарі позначені грецькими буквами . Після вхідний шар може бути один або декілька прихованих шарів, а потім, нарешті, вихідний прошарок, який показує, який шаблон був визнаний. На слайді, приховані блоки, відзначені V лист і виведення з букви О. одиниць на вході, приховані і вихідний шари з'єднані різними способами в залежності від типу нейронної мережі. Блок буде активувати, якщо є достатні вхід від інших одиниць. Міцність з'єднання (Wij) між одиницями зміни під час тренувань і це те, що дозволяє мережі "вчитися" візерунок. Повністю навченої мережі може визнати підготовки шаблону в новий вхід. Прикладом програми гена прогноз, який використовує нейронні мережі є GrailEXP.
34. Приховані моделі Маркова
Може бути використана для машинного навчання
Одиниці являють собою перехідні стани
Переходи не залежить від історії
Багато застосувань в галузі геноміки
гена прогноз
Множинне вирівнювання послідовностей
Знаходження періодичних структур
Марковський процес є процесом, в якому майбутнє держави залежить від нинішнього стану, але не на минулих станів. Марківські процеси описуються багато біологічні явища, в тому числі пар основ замін в результаті мутацій. У деяких випадках, держави в марківського процесу не відомо. Приклад нечесного гравця часто використовуються для ілюстрації цієї точки. Гравець може нести завантажених вмирає, що він або вона іноді заміняє гральної кістки, але не настільки часто, що інші гравці не помітить. Гральної кістки має один-в-шість шанс показати чи інший номер. При використанні завантажених вмирає, гравець буде мати шанс 50% рухомого однієї і з імовірністю 10% рухомого будь-який інший номер. Саме в таких ситуаціях, що стохастичні моделі називають прихованою марківської моделі (ПММ) корисні, тому що вони враховують невідомих (або прихована) станів. Наприклад, саме тоді, коли обман гравець використовує справедливої або завантажених вмирають прихована від інших гравців, але розуміння все ще може бути отримано, дивлячись на результат рулонах шахрая. Якщо він чи вона котиться трьох в ряд, то, швидше за все (12,5% випадків), що завантажений вмирають в даний час використовується не справедливою один, який буде мати тільки 0,5% шансу отримання трьох в ряду. Приховані моделі Маркова описують імовірності переходів між станами прихованих, а також ймовірності, пов'язані з кожною державою. У приклад обману гравця, HMM б описати ймовірності рухомого окремих номерів з урахуванням завантаженої або гральної кістки і ймовірність того, що нечесний гравець буде переходити від однієї кістки до іншої. Приховані моделі Маркова можуть бути використані для відповіді на три типи питань. Перший тип ймовірності питання: Враховуючи особливості HMM, яка ймовірність отримання конкретного результату (наприклад, прокат три)? Другий тип є питання декодування: Враховуючи особливості Хм, а що є найбільш імовірною послідовності переходів між станами для конкретного результату? У разі обману гравець, ця послідовність буде порядок, в якому він або вона перейшла від однієї кістки до іншої. Третій тип є вивчення питання: Враховуючи той чи інший результат і набір припущень про можливі перехідних станів, що кращі параметри моделі (наприклад, ймовірності переходу між станами)? Це третє питання дозволяє ПММ, які будуть використовуватися для машинного навчання. На малюнку на слайді показаний простий приклад приховані моделі Маркова використовується для обліку послідовності ДНК в нижній частині. Кожен HMM має початок і кінець держави, позначаються S і E, відповідно, на слайді. Прихована стану лежать між початковим і кінцевим станами. На малюнку квадрати держави, і межі між ними вказують на ймовірність переходу одного стану в інший. Петлі на верхньому і нижньому станах показати ймовірності, пов'язаних із станом інших те ж саме. Держави переходу вперед і назад, поки HMM досягає кінцевого стану. У цьому HMM, верхній квадрат представляє державу, яка має рівні ймовірності генерації A, G, C або T. У нижній держава ймовірності 0,1, 0,1, 0,1, та 0,7 генерації A, G, C, T і, відповідно.