Формирование технологической среды информационной системы

Санкт – Петербургский Государственный Университет Информационных

Технологий Механики и Оптики

Кафедра информационного менеджмента

Тема:

Формирование  технологической среды информационной системы

Выполнил : Хижевский А.Я.

студент группы 5518

Проверил: Васюхин О.В.

Санкт - Петербург

2005

Содержание

1. Введение………………………………………………………………………..3

2.Современные технические средства технологической среды (какое железо используется)……………………………………………………………………..5

3. Телекоммуникационные средства (Интернет и другие)……………………8

4. Программные средства информационных систем (современные СУБД и операционные системы)…………………………………………………………10

5. Список литературы……………………………………………………………14

Введение

       С расширением и дифференциацией мирового рынка средств информатизации (СИ), т.е. вычислительной, периферийной, спе­циальной и коммуникационной техники (Hardware), а также про­граммных, информационных и сервисных средств (Software) мно­жатся варианты возможных решений в области формирования технологической среды информационных систем. При этом име­ются в виду не проектные работы по созданию ИС или ее элемен­тов, а те решения, которые принимает менеджер в качестве пред­ставителя заказчика, т.е. в порядке выработки технического зада­ния, исполнять которое, может быть, будет специализированное предприятие. С позиций стратегического информационного ме­неджмента в отношении Hardware и Software предприятию необ­ходимо выяснить следующие важные вопросы:

  1. нужно ли всегда стремиться использовать только новейшие средства информатизации и при этом рисковать из-за их не­завершенности;
  2. какую степень децентрализации ИС необходимо выбрать;
  3. следует ли доверять принятым и принимаемым международным нормам (в том числе тем, которые только еще начинают вводиться) или предпочесть нормы (нормативы) одного опре­деленного изготовителя и связать себя с этим изготовителем;
  4. по какому глобальному критерию следует выбирать поставщика.

Степень децентрализации информационной системы, скорее всего, будет выбрана по аналогии со степенью децентрализации на предприятии других функций, поставщик тоже будет определён на основе общих представлений о путях решения стоящих перед предприятием основных задач. Выбор средств информати­зации для развития информационных систем из новых предло­жений поставщиков или из уже присутствующих на рынке изде­лий осуществляется, как правило, по тому стратегическому критерию значение которого наиболее полно отражает роль ИС для предприятия. Хотя в этой сфере уже накоплен опыт как предпри­ятиями, так и экспертами, однако в каждом отдельном случае требуется детальный системный анализ.

Во многих ИС с использованием персональных компьютеров (ПК) при формировании технологической среды зарекомендовал себя следующий принцип: предприятия стремятся иметь в тече­ние рассматриваемого стратегического периода единый техно­логический парк. с тем чтобы использовать как внутренние (надзор, обучение), так и внешние (условия при покупке, солидное сопровождение) его преимущества.

На основе углубления и укрепления нормирования и стандар­тизации со стороны поставщиков всех средств информатизации (Hardware и Software) усилились стремления предприятии к неза­висимости от связи только с одними и теми же изготовителями. Это теперь стало вполне возможно, так как поставщики на рынке как Hardware, так и Software, по крайней мере в некоторых областях, согласовали целый ряд стандартов, так что для пред­приятий возникла определенная свобода при решении задачи выбора тех или иных средств.

Конечно, имеющейся в настоящее время благодаря стандар­там так называемых открытых систем (Open Systems) степени сво­боды уже недостаточно: необходимы дополнительное изучение рынка, беседы с поставщиками, скрупулезное собирание опыта как собственного предприятия, так и других пользователей, что составляет сущность маркетинга; все это нужно превратить в практические решения по выбору средств информатизации. Сле­дует также регулярно анализировать, в какой степени те или иные услуги должны обеспечиваться своими силами, а в какой - тем или иным внешним исполнителем. Анализ показателей хозяй­ственной деятельности (например, анализ стоимости ремонта в единицу времени) может потребовать замены технических или программных средств.

В случае если фирма стратегически заинтересована в том, что­бы играть передовую роль в области ИС и ОИ, ей следует для снижения степени риска при выработке прежде всего стратеги­ческих решений создать испытательное поле или полигон, на ко­тором должны предварительно проверяться по крайней мере, основные принимаемые в этой сфере решения, с тем чтобы воз­можные промахи своевременно выявлялись и не приносили пред­приятию ощутимых потерь.

1. Современные технические средства технологической среды

Основой технических элементов ИС являются процессоры и наиболее массовый их вид - микропроцессоры. Хотя непосред­ственно в качестве самостоятельных элементов системы они, ес­тественно, не используются, но влияние их характеристик на воз­можности ИС в целом велико и будет возрастать. В середине и конце 90-х гг. на рынке было представлено несколько семейств процессоров разной мощности и разных фирм.

Компания Intel оставалась лидером в области процессоров персональных компьютеров и в 90-е гг. К началу 1996 г. в мире насчитывалось уже 187 млн ПК с процессорами Intel, это около 80% мирового парка. В 90"е гг. фирма выпустила процессоры Pentium, Pentium MMX. Pentium Pro, Pentium II и Pentium III со все более высокими тактовыми частотами.

Известная американская компания AMD (Advanced Micro Devices), основной конкурент фирмы Intel на ее «поле», создает микропроцессоры, аналогичные моделям Intel, причем в ряде случаев превосходящие их по характеристикам и к тому же более дешевые. Следует отметить, что фирма AMD сыграла положи­тельную роль, лишив Intel роли абсолютного монополиста на рынке микропроцессоров.

Мощные RISC-процессоры (Reduced Instruction Set Computer -компьютер с сокращенным набором команд) играют видную роль в создании ИС. Среди них представлены следующие семейства. Консорциум фирм Apple-IBM-Motorola (альянс AIM) разрабо­тал и производит мощный и эффективный процессор PowerPC (РРС). Компания Hewlett-Packard (HP) выпускает семейство про­цессоров PA-RISC, среди них полностью 64-разрядный РА-8000, Компания SUN Microsystems представила в 1995 г. концепцию Ultracomputing, базирующуюся на 64-разрядных процессорах UltraSPARC I и II. Первый из них имеет около 5,2 млн транзис­торов, второй - около 5,4 млн. Перспектива фирмы SGI - 64-раз­рядный процессор R 10000 компании MIPS, содержащий 5,9 млн транзисторов. RISC-микропроцессор Alpha фирмы DEC бессмен­но лидировал в борьбе за абсолютный рекорд скорости.

Общим итогом второй половины 90-х гг. является вторжение процессоров с архитектурой Intel в область приложений, где до­минировали RISC-процессоры, которые традиционно считались более мощными; те, в свою очередь, вторгаются в более высокие сферы. При этом все компании объявили о своих планах как на ближайшее время, так и на перспективу.

Совместно с компанией HP фирма Intel выполняет исследо­вания по новой архитектуре IA-64 64-разрядных процессоров. При этом ставится цель сделать новую архитектуру доступной для массовых моделей рабочих станций и серверов, где сейчас доминируют RISC-процессоры. Процессор Р7, получивший сна­чала имя Merced, будет продаваться под торговой маркой Itanium. Мировой рынок ожидает появления этого процессора как знак нового поколения изделий в этой сфере. Как предполагается, он будет обладать обратной совместимостью с 32-разрядными при­ложениями; объявлено, что его тактовая частота будет не ниже 900 МГц.

Затем компания планирует выпустить 64-разрядный процес­сор McKinley, его тактовая частота может превысить 1 ГГц. В конце 2001 г. планируется представить процессор с кодовым на­званием Madison, который будет реализован на технологической базе 0,13 мкм, вслед за ним - процессор Deerfield, который дол­жен быть достаточно дешевым и предназначен для массовых ра­бочих станций и серверов. Эти процессоры должны обеспечить архитектуре IA-64 долгую жизнь. По мнению аналитиков, она будет актуальна по крайней мере 25 лет - для микропроцессоров это огромный срок. Поэтому директор Intel до 1998 г. Энди Гроув заметил, что в 21-й век пройдут две архитектуры: Intel/HP с Р7 и Р8 и новое поколение PowerPC альянса AIM.

Intel продолжает развивать и все семейства 32-разрядных про­цессоров, осуществляя при этом переход на все меньшие техно­логические нормы проектирования. Для массовых ПК компания предложила процессор Celeron. Правда, на рынке си­стем младшего класса он атакован со стороны процессоров AMD К6-2 с графическим расширением 3DNow! Дорогостоящий Pentium II Хеоп предназначен для многопроцессорных серверов и мощных рабочих станций. Katmai имеет дополнительный на­бор команд, аналогичный расширению ММХ и представленной фирмой AMD системе 3DNow!

Усовершенствованные процессоры с 32-разрядной архитектурой со временем заменят Pentium II. Выпуск первого такого процессора Foster с тактовой частотой 1 ГГц намечен на конец 2000 г., он пред­назначен для массовых моделей рабочих станций и серверов, па которых устанавливаются процессоры Pentium II Хеоп. В те же сро­ки начнет выпускаться еще один процессор в новой архитектуре -Willamette с тактовой частотой 1 ГТц, рассчитанный на ПК старше­го класса» оснащаемые сейчас процессором Pentium II. Переход на норму 0,18 мкм позволит существенно повысить тактовую частоту, а освоение нормы 0,13 мкм обеспечит переход на тактовую частоту 1,2 ГГц, что планируется уже после 2000 г.

Интересно, что по системе стандартных тестов SPEC 95 уже 400-МГц процессоры Pentium II архитектуры х86 не являются «хронически отстающими» от всех RISC-процессоров. Тем не менее от ведущих моделей RISC-процессоров они еще отстают, например от процессора Alpha. Правда, и цены на RISC-процес­соры все еще существенно выше.

Компании AMD и Cyrix тоже совершенствуют свои изделия. В работах по процессору К7, конкурирующей модели по отноше­нию к процессору Intel P7, AMD опередила Intel: в конце 1999 г. она выпустила процессор Athlon с тактовой частотой 750 МГц по 0,18-мкм технологии. Самый быстрый процессор Intel -Pentium Ш - имел тогда частоту 733 МГц. В начале 2000 г. AMD и Intel представили процессоры, превысившие рубеж 1 ГГц.

В традиционно верхних «эшелонах» микропроцессоров так­же ведутся перспективные работы и проектируются новые поко­ления изделий.

SUN Microsystems совершенствует свои процессоры UltraSparc: увеличивает тактовую частоту до 1 ГГц за счет пере­хода на норму 0,15 мкм, к 2002г. планирует довести ее до 1,5 ГГц в процессоре UltraSparc V. Партнер фирмы в этих работах - ком­пания Texas Instruments (TI) - в 1998 г. анонсировала техноло­гию с нормой 0,07 мкм, которая позволяет разместить на одной микросхеме свыше 400 млн транзисторов. Этот уровень интегра­ции требует решения сложнейших технологических проблем, Компания IBM выпустила в 1998 г. первый микропроцессор с медной разводкой - PowerPC 750, предназначенный для серве­ров семейств S/390, RS/6000 и AS/400.

фирма HP сообщила, что ее новый процессор - 64-разряд­ный PA-8500 - предлагается в двух вариантах, предназначенных для корпоративных серверов HP-9000 серии V и для рабочих стан­ций серии С. Компания намечает развить семейство РА-8000: на 2000 г. запланирован выпуск модели РА-8600; на 2001 г. - модели РА-8700, вслед за которой будут РА-8800 и РА-8900.

Предполагавшийся в связи с поглощением компанией Compaq концерна DEC в 1998 г. уход со сцены микропроцессора Alpha не состоялся. Хотя Compaq была намерена сделать ставку на про­цессор Merced, с приобретением высокопроизводительных про­цессоров Alpha компания пересмотрела свою стратегию по про­изводству компьютеров.

Compaq рассматривает не только их применение в суперус­тойчивых компьютерах Tandem (продукция ранее приобретен­ной ею компании Tandem, известная во всем мире исключитель­ной живучестью, используется в самых ответственных примене­ниях), но и поэтапное обновление всего семейства серверов Digital Alpha Server на базе самых современных моделей Alpha ev 6 и их последующих версий. Правда, именоваться серверы теперь будут, естественно, Compaq Alpha Server. Это будет семейство из трех категорий: серверы уровня подразделения (Department Server -DS), уровня предприятия (Enterprise Server - ES) и глобального уровня (Global Server - GS).

Задержка выпуска процессора Merced дает процессору Alpha дополнительные возможности, поскольку Alpha намного превос­ходит процессоры Intel, в частности, в области систем старшего класса. Фирма Compaq обнародовала следующее поколение про­цессоров Alpha. Это Alpha 21364, в которой то же ядро, что и в Alpha 21264. Этот процессор позволяет создавать высокопроиз­водительные многопроцессорные системы. Он создан по 0,18-мкм технологии, будет иметь тактовую частоту 1 ГТц и выше.

Таким образом, 32-разрядные процессоры будут не только сохранять за собой рынок ПК, но и конкурировать на рынке ра­бочих станций низших классов. Однако пока 64-разрядная архи­тектура Intel станет неотъемлемой частью настольных систем, пройдет немало времени. Поэтому можно считать, что сохраня­ется следующее «распределение обязанностей»: 64-разрядные процессоры будут использоваться для серверов и мощных приложений, 32-разрядные - для персональных компьютеров и сер­веров низших уровней.

На рубеже тысячелетий имеет место заметный прогресс в об­ласти компактных процессоров для мобильных и встроенных приложений. Особо требовательный клиент в этом секторе - пор­тативные и мобильные компьютеры, в том числе ноутбуки. Здесь представляет интерес новый процессор Crusoe фирмы Transmeta (США).

Для таких дорогостоящих изделий, какими являются мощные микропроцессоры, срок выпуска на рынок не является произволь­ным делом фирмы-производителя: с потребителями заранее со­гласуются условия, в том числе и сроки, им выдаются соответ­ствующие гарантии поставок.

Российские возможности в производстве микропроцессоров пока развиваются очень слабо, и отечественный производитель ЭВМ практически полностью зависит от поставок процессоров из-за рубежа. Однако работы проводятся и имеются заметные достижения. Так, на основе идей, заложенных в суперЭВМ «Эль­брус», выполняются разработки мощных процессоров; главный конструктор «Эльбруса» Б.А. Бабаян успешно сотрудничает с SUN, знаменитый процессор UltraSPARC создан с его участием и несет в себе некоторые элементы архитектуры «Эльбруса». Ос­новные идеи «Эльбруса» находят воплощение в создаваемом под руководством Б.А. Бабаяна микропроцессоре E2k (от Эльбрус 2000), который вписывается в ряд мощных 64-разрядных процес­соров нового поколения. Утверждается, что E2k, ориентирован­ный на норму проектирования 0,18 мкм, даже превосходит Merced (он же Itanium) по производительности и сопоставим скорее все­го уже со следующей моделью этого ряда с кодовым названием McKinley.

2. Телекоммуникационные средства, Интернет и другие

Инновационные мероприятия в сфере информатизации при­званы обеспечить своевременное и эффективное внедрение но­вых и новейших достижений для успешного и эффективного ее развития.

Корпоративные заказчики выплачивают миллионы долларов ведущим производителям и консультантам, в конечном счете вве­ряя им свое будущее. Но руководителям информационных служб при этом хотелось бы убедиться в том, что нынешние лидеры в области высоких те?йюлогий завтра не утратят позиций и фирма не попадет в плен устаревшей технологии.

Лидеры рынка, закрепившиеся на своих позициях, иногда склонны сознательно избегать кардинальных изменений техно­логии до самого последнего момента; примерами могут служить равнодушное отношение IBM к зарождению ПК, отрицательное отношение Кеннета Олсена (DEC) к RISC-процессорам, а также то, как Microsoft пропустила возникновение Интернет.

Обычно фирмы уделяют основное внимание закупочным це­нам, однако не менее важно проанализировать планы произво­дителей в отношении модернизации их продукции с учетом по­явления новых технологий. И быстрый рост оборота, и значи­тельные расходы на исследования и разработки далеко не всегда преобразуются в новые технологии. К тому же если производи­тель выпускает продукты, которые необходимы потребителям именно сейчас, то это хорошо только на первый взгляд: слишком сильная ориентация на пользователей приводит к недооценке так называемых «разрушительных» технологий, т.е. тех, которые пока еще не интересуют потребителей.

В результате может сложиться ситуация, когда корпоратив­ным заказчикам понадобится некая радикально новая («разру­шительная») технология, а производитель, следовавший на по­воду у пользователей по пути развития стабильных технологий, вполне вероятно, упустит подходящий момент ее внедрения. В свою очередь, и потребитель почти так же беспомощен перед «раз­рушительной» технологией, как и производитель.

Существует несколько достаточно расплывчатых методик, которые могут выявить инновационную готовность производи­телей.

Одна из них - ориентация на разработку прототипов. Она возникла на основе изучения методов, используемых компания­ми, выпускающими аппаратное и программное обеспечение. Дело в том, что традиционная модель разработки ориентируется на спецификации, т.е. компания анализирует требования к системе, пишет и утверждает спецификацию, а затем постепенно реализу­ет продукт. Эту модель еще называют каскадной или подходом «сверху вниз».

Подход, ориентированный на создание прототипов, намного более адаптивен: разработчик быстро создает прототип и затем совершенствует его. В средах, которые быстро меняются, модель разработки на основе прототипов выглядит более подходящей. Все, кто работает в мире Интернет, отдают предпочтение имен­но этой модели. К примеру, Microsoft использует прототипный подход к исследованиям и разработке офисных приложений.

Правда, несмотря на преимущества прототипной разработ­ки, руководители корпоративных информационных служб счи­тают более удобной модель, определяемую спецификациями, как более предсказуемую. В то же время многие потребители скорее предпочтут увидеть работающий прототип, на создание которо­го ушло меньше месяца, а затем еще шесть месяцев понаблюдать за его развитием, а также за реакцией разработчика на свои за­мечания, чем после пятимесячного ожидания результата вопло­щения спецификаций получить продукт, который совсем не по­хож на то, что нужно.

Интерес представляет и то, сколько проектов производитель разрабатывает одновременно. Выявлено, что средняя высокотех­нологичная компания обычно пытается разработать больше про­

дуктов, чем в состоянии сделать. Общее же эмпирическое прави­ло состоит в том, что ведущие специалисты должны вести не бо­лее двух ключевых проектов одновременно.

Администраторы ИС также должны внимательно изучить стратегию приобретений, принятую их поставщиками. Например, некоторые доминирующие корпорации типа Cisco и Microsoft пришли к выводу, что целесообразнее приобретать идеи для про­дуктов следующего поколения у начинающих фирм, чем генери­ровать их самим. Анализируя приобретения компании и судьбу купленных ими технологий, администраторы ИС могут получить представление о способности поставщика воспользоваться новым «имуществом». Покупка, а не создание новой технологии - это законный и даже эффективный подход, хотя, вероятно, он все же свидетельствует о том, что такая компания скорее склонна сразу извлекать из будущего коммерческую пользу, вместо того чтобы это будущее создавать собственными силами. Конечно, подоб­ный подход может оказаться успешным, если компании-покупа­тели сохранят свой основной персонал и будут финансировать продолжительные разработки.

Как показывает зарубежный опыт, представляет интерес так­же и оценка практики сотрудничества фирм с университетами и лабораториями.

Не все фирмы в состоянии сами решать задачи оценки воз­можностей поставщика и его технологии. За рубежом обычно всегда находятся независимые компании, готовые решать эти за­дачи за определенную плату. Более того, независимые консуль­танты и системные интеграторы помогают выявить и испытать еще не вышедшие из стен исследовательских лабораторий перс­пективные технологии. Такие независимые испытания нужны еще и потому, что большинство крупных компаний обычно старают­ся скорее продвинуть пусть и перспективные, но еще сырые тех­нологии на рынок.

Руководители информационных служб предприятий при вы­боре поставщиков склонны недооценивать необходимость ана­лиза их стратегии в области инноваций. Однако проблема инно­ваций именно в сфере информатизации всегда возникает при вы­полнении программ развития в самых разных областях деятель­ности. Более того, при развитии любой сферы деятельности практически неизбежно нужно проводить инновационные мероприя­тия по информатизации.

В качестве примера можно привести характерную ситуацию, сложившуюся летом 1998 г. в европейских финансовых учрежде­ниях вокруг перехода европейских стран на единую европейскую валюту евро. Страны, отказывавшиеся от перехода на евро, в ка­честве одного из основных аргументов приводили необходимость существенных изменений в банковской сфере, прежде всего в об­ласти ее информатизации. Банки этих стран стояли перед необ­ходимостью создания или приобретения программных средств, работающих в двух или более валютах. Ранее у них такие опера­ции не требовалось обеспечивать, и таких программ во многих банках просто не было. Оказалось, что для этого требуются ог­ромные средства.

3. Программные средства информационных систем (современные СУБД и операционные системы)

Базовые системы больших машин являются «фирменными»;

хотя по внешним интерфейсам они совместимы с другими сред­ствами, их внутренние свойства могут существенно различаться и составляют секрет фирмы. Основа базовых средств - операци­онная система. Администраторы ИС требуют, чтобы операци­онная система имела прежде всего высокую надежность и жизне­способность. По этим качествам эталоном служит ОС MVS фир­мы IBM - базовая для ЭВМ семейства ESA/390. Первым принци­пом, заложенным в MVS при ее создании, является локализация ошибки в минимальном элементе задания и отбрасывание этого задания. Второй принцип организации MVS - возможность вос­становления состояния после сбоев. Эта ОС может воссоздать тысячи нажатий клавиш пользователем на этапе восстановления состояния. Однако для ее использования нужны значительные ресурсы, поэтому в маломощных системах ее свойства реализо­вать в полной мере не удается.

На основе базовой ОС MVS/ESA созданы варианты с мень­шими возможностями, а также ОС для средних машин AIX/390 -полностью 64-разрядная ОС, одна из самых мощных современ­ных версий ОС UNIX. Для их инсталляции нужны меньшие ре­сурсы, они обеспечивают соответственно более низкий уровень качества управления вычислительным комплексом.

Базовой операционной системой средних машин служит ОС UNIX. Именно эта ОС является основной для серверов сред­него уровня и начинает рассматриваться для серверов высше­го уровня и суперсерверов масштаба предприятия. В последнее время на эту роль активно претендует ОС Windows NT компа­нии Microsoft.

Разработка ОС UNIX высокого класса требует больших зат­рат. До недавнего времени в список компаний, занимающихся разработкой ОС UNIX мирового класса, входили AT&T GIS Data General, DEC, HP, IBM, Novell, Santa Cruz Operation, Siemens Nixdorf, SUN Microsystems и некоторые другие. Производители 64-разрядных операционных систем (Digital, Hewlett-Packard, SUN Microsystems и IBM) традиционно разрабатывали свою ОС (Digital UNIX. HP-UX, Solaris и AIX соответственно) как некое­го рода надстройку к собственному RISC-процессору.

Кроме стандартных вариантов ОС UNIX все громче заявляет о себе новая ОС Linux. Она создается изначально бесплатно, и круг ее пользователей стремительно ширится.

Еще пять лет назад мысль о соперничестве между Windows NT и UNIX не возникала. Однако благодаря усилиям Intel в раз­витии микропроцессоров ПК-серверы получили признание на рынке корпоративных систем. Все это укрепляет позиции альян­са Wintel (Windows+Intel), но отнюдь не означает, что будущее за NT, хотя за последние годы ОС Windows NT продемонстриро­вала прочное положение на рынке многопроцессорных серверов

младшего класса стоимостью менее 50 тыс. долл. На рынке же высокопроизводительных корпоративных серверов, которые могут оцениваться в 500 тыс. долл. и более, все еще господству­ют UNIX-системы.

Еще одна сфера, способная стать «полем боя», - кластериза­ция, т.е. объединение серверов в группы для повышения произ­водительности и обеспечения высокой отказоустойчивости. Тех­нология кластеризации еще достаточно нова для Windows NT, a UNIX-серверы давно зарекомендовали себя в этой области с луч­шей стороны. Очевидно, что до тех пор, пока крупные компании заинтересованы в высокой производительности, надежности и отказоустойчивости, данный рынок будет принадлежать UNIX-системам.

В качестве ОС для ПК практически безраздельно господству­ет семейство Microsoft Windows в нескольких версиях. Компания Microsoft пытается сформулировать для пользователей более или менее стройную стратегию использования различных версий ее ОС Windows, однако это у нее пока не очень получается. Так, многие пользователи соглашаются с тем, что новая Windows 98 -это ОС для конечных пользователей, a Windows NT - для компа­ний. Однако приложения, созданные в свое время специально для Windows 95, могут не работать в среде Windows NT, полностью 32-разрядной операционной системе, поддерживающей иные форматы файлов, чем ОС серии Windows 95/98. Особенно слож­но оценить, как поведут себя приложения, приобретенные или созданные в прежние годы. Скорее всего Windows 98 заменит Windows 95 на компьютерах конечных пользователей; в платфор­мах серверов компаний ее роль предсказать пока трудно.

При этом задача перед менеджерами ИС достаточно слож­ная, Windows 98 в некоторых аспектах имеет превосходство над NT. К тому же для ОС Windows NT необходимы более «креп­кая» аппаратная база (более мощный процессор, больше опе­ративной памяти и наличие более емких жестких дисков) и более интенсивная техническая поддержка. Это удерживает от перехода на NT, поэтому пользователи могут сохранить Windows 95 или 98. Объявленный выход новой ОС MS Windows 2000 явно задерживается.

Современные СУБД и операционные системы

В связи с увеличением масштабов хранения и обработки дан­ных система управления данными становится в ряд центральных ресурсов информационной системы. Формирование структур данных уже давно осуществляется в среде той или иной стандар­тной системы управления базами данных (СУБД). В развитых и масштабных ИС выбор СУБД является задачей примерно той же значимости, что и выбор ОС, а переход системы на другую СУБД может быть столь же трудным.

Идеальных СУБД нет и быть не может: все они имеют как сильные стороны, так и слабые. Крупная база данных создается не на один год, поэтому выбор СУБД серьезными заказчиками осуществляется, как правило, в результате тестирования различ­ных вариантов с учетом характера задач формирования струк­тур и обработки данных, требований защищенности и т.п.

Одной из важнейших характеристик СУБД является модели данных. Теоретически любую информацию можно представить в виде реляционной модели. Эта модель имеет наиболее прора­ботанные математическое основание и стандарты. Кроме того, реляционная модель данных отличается большой гибкостью от­носительно изменения структуры данных. Это. безусловно, наи­более распространенная сейчас модель данных. С другой сторо­ны. существует немало задач, которые более эффективно реша­ются средствами других моделей. В частности, автоматизация новых областей бизнеса уже поставила задачу поддержки объек­тно-ориентированного подхода.

Существует уже достаточно широкий набор объектно-ориен­тированных систем. Одной из основных является OracleS компа­нии Oracle. Компания Informix утверждает, что по функциональ­ным возможностям ее Dynamic Server ненамного отличается от Oracle. В свою очередь, Sybase реализует объектно-ориентиро­ванные возможности в своей схеме баз данных, хотя ее Adaptive Server Enterprise предлагает лишь некоторые из функций, имею­щихся в Oracle». Компания IBM обеспечивает те же функциональные возможности в версии своей DB2 и перенесла эту новую вер­сию СУБД и на самый массовый бизнес-компьютер AS/400.

Microsoft SQL Server по уровню объектно-реляционной поддер­жки явно отстает от других ведущих реляционных баз данных. Computer Associates предлагает Jasmine, объектно-ориентирован­ную базу данных, призванную свести на нет противоречия между реляционными данными и объектно-ориентированными прило­жениями.

Непрерывно совершенствуясь, системы хранения данных ста­новятся все более емкими, дешевыми и надежными. Клиенты ста­новятся все более требовательными в отношении как данных» так и технологий работы с ними. Им нужны средства для доступа к большим объемам данных, а также возможность быстрого поис­ка в сверхбольших объемах данных, содержащих, например, все сведения о деятельности компании за добрый десяток лет. Как следствие, возникла технология хранилищ информации (Data Warehouse), которая представляет собой самостоятельную об­ласть ИТ. В ее основе лежит идея создания централизованной и всеобъемлющей корпоративной базы данных, главное предназ­начение которой - информационное обеспечение систем поддер­жки принятия решений руководителями предприятий.

По замыслу автора идеи создания хранилищ У. Инмона (W. Inmon) [42], такая база данных должна отвечать следующим тре­бованиям. Во-первых, ориентироваться на предметную область, а не на приложения, которые будут работать с данными. Во-вто­рых, хранилище должно содержать интегрированную информа­цию, полученную на основе данных из множества источников; необходимо проводить проверки на непротиворечивость, целос­тность и т. д. В-третьих, база данных хранилища должна быть оптимизирована прежде всего для операций поиска и чтения: дан­ные, пройдя обработку и попав однажды в хранилище, остаются там на долгие годы, причем изменения в данных не предполага­ются. В-четвертых, оборудование, предназначенное для хранения данных, должно иметь высокую надежность.

На основе концепции хранилищ данных строится схема их включения в корпоративную ИС. По одну сторону от хранилищ данных остаются источники информации, в качестве которых обычно выступают стандартные системы оперативной обработ­ки транзакций (On-Line Transaction Processing, OLTP). По дру­гую - приложения-потребители, прежде всего системы оператив­ной аналитической обработки данных (On-Line Analytical processing, OLAP). Потребителями информации являются в ос­новном OLAP-системы. Для оптимизации работы, как хранилищ данных, так и OLAP-систем создаются так называемые витрины (или киоски) данных (Data Marts) - промежуточные базы дан­ных, содержащие выборку из хранилища, создаваемую специаль­но для конкретных приложений. Полно размерная работа в струк­туре хранилища называется Data Mining (разработка данных -по аналогии с разработкой полезных ископаемых).

Функционирование собственно хранилища данных обеспечи­вается на основе достаточно мощных СУБД компаний Oracle, Informix, Sybase, NCR, IBM и др. Реализация хранилищ данных представляет собой достаточно сложную технологию: это есте­ственно, когда приходится оперировать сотнями гигабайтов и терабайтами данных. Они обычно строятся следующим образом. Для сбора и предварительной обработки данных от систем-ис­точников выделяют один или несколько относительно неболь­ших серверов на базе ОС ,UNIX или NT. В качестве главного сер­вера СУБД хранилища используются мощные ПК (менее 3 Гбайт), мощные UNIX-компьютеры (3-25 Гбайт), мейнфреймы (25 - 400 Гбайт) или даже суперЭВМ при объеме данных более 400 Гбайт, которые считаются уже уникально большими. Собственно данные хранятся в избыточных массивах дисковых накопителей RAID, соединенных с сервером СУБД с помощью высокопроиз­водительной шины (SCSI, Fibre Channel, Gigabit Ethernet, ATM). Для реализации витрин данных применяют машины на базе ОС UNIX или NT с собственными массивами накопителей.

Как любая технология, хранилища данных имеют специфи­ческие проблемы создания, эксплуатации, оценки эффективнос­ти, а также согласования с различными задачами и требования­ми. Тем не менее целесообразность их применения уже не под­вергается сомнению, все владельцы больших и сверхбольших объемов информации создают такие технологии в своих ИС. Так, по оценкам специалистов, к 1999 г. объем хранимых в глобаль­ных сетях данных достиг 1000 петабайт (1 млн Тбайт). Размер многих крупных хранилищ данных уже измеряется десятками те­рабайт и продолжает непрерывно увеличиваться, за ближайшие три года средний размер хранилищ данных увеличится в 36 раз.

                                                                                                                               

Список литературы

1. Костров А.В. Основы информационного менеджмента, Москва, Финансы и статистика, 2001

2. Лейбовский М.А. «Информационный менеджмент»

2. Интернет