Автор работы: Пользователь скрыл имя, 23 Октября 2009 в 12:56, Не определен
Лаборатории IBM давно уже стали уникальным центром исследований, во многом определяющим будущее информационных технологий. И для ответа на вопрос, куда мы движемся и что будет дальше, стоит присмотреться в том числе и к тому, что сегодня рождается в лабораториях IBM
Сергей Яскевич, директор IBM Global Services IBM Восточная Европа/Азия
Лаборатории IBM давно уже стали уникальным центром исследований, во многом определяющим будущее информационных технологий. И для ответа на вопрос, куда мы движемся и что будет дальше, стоит присмотреться в том числе и к тому, что сегодня рождается в лабораториях IBM.
Делать прогнозы о перспективах - дело неблагодарное. Еще в 1957 году Нильс Бор сказал, что делать прогнозы очень тяжело. Посмотрите на некоторые прогнозы, связанные с информационными технологиями. Так, например, один из основателей компании DEC в 1977 году заявил, что нет никаких причин иметь компьютер у себя дома. А Билл Гейтс как-то сказал, что 650 Кбайт оперативной памяти вполне достаточно, чтобы выполнить любую работу. С другой стороны, всем известен закон Мура, одного из основателей компании Intel, который гласит, что сложность микросхем возрастает в два раза каждые 18 месяцев. Это один из примеров удачных длительных предсказаний, и за 30 лет развития интегральных схем плотность интегральных схем увеличилась в 18 000 раз. Что будет дальше, и есть ли у технологий возможности дальнейшего развития?
Чтобы попытаться ответить на эти вопросы, я хочу немножко приоткрыть дверь в те лаборатории, которые занимаются разработками в области информационных технологий. Таких лабораторий в IBM множество, и в них работают ученые, которые занимаются не только информационными технологиями, а и фундаментальными исследованиями. Так, несколько сотрудников IBM были удостоены Нобелевской премий за фундаментальные открытия, сделанные в недрах лабораторий компании. Это открытие высокотемпературной проводимости, туннельного эффекта в полупроводниках и создание сканирующего электронного микроскопа.
Помимо этого в лабораториях IBM родились перфокарты, первый ламповый компьютер, первый носитель на магнитных дисках, язык Fortran, который впервые сделал язык математики понятным машине. Процессоры с сокращенным набором инструкций (RISC) и реляционная база данных - это тоже изобретение IBM. Среди самых последних изобретений лабораторий IBM - медные проводники на полупроводниковых подложках и так называемый "напряженный кремний на германиевых подложках", что примерно на 35% позволит увеличить производительность микросхем. Наконец, первый суперкомпьютер DeppBlue, который смог обыграть в шахматы чемпиона мира Гарри Каспарова, также был построен инженерами-исследователями из IBM.
И вполне понятно, почему для ответа на вопрос, куда мы движемся и что будет дальше, стоит присмотреться к тому, что сегодня рождается в лабораториях IBM.
Если посмотреть на современные полупроводниковые технологии, то мы практически дошли до пределов возможного. Сейчас слой диэлектрика в транзисторе составляет 10-15 атомов. Теоретический предел - это пять-шесть атомов, и практически в развитии традиционной полупроводниковой электроники мы уже к нему приблизились. Поэтому будущее за новыми технологиями, и такие новые технологии развиваются в недрах лабораторий IBM. Одно из инновационных направлений - это наноэлектроника. В 1998 году ученые Дональд Эйтлер и Эрхард Швейцер из лаборатории IBM в Калифорнии сумели выложить 35 атомами ксенона на кристалле никеля логотип IBM. Это одно из первых свершений в области нанотехнологии, когда человечество научилось управлять структурами фактически на атомарном уровне.
Дальнейшее развитие это направление получило с изобретением так называемых кремниевых трубок. Кремниевая трубка на атомарном уровне может быть наполнена каким-то содержимым и изменяет свои качества в зависимости от геометрии и того, каким материалом она наполнена. Размер такой трубки составляет 1-1,5 нанометра. Фактически это позволяет создавать интегральные микросхемы на принципиально другом уровне и в принципиально другой плотности.
Причем эти нанотехнологии уже вышли за пределы теоретических разработок. Так, в лаборатории IBM в Швейцарии ученый Герд Биннинг, который получил Нобелевскую премию за разработку электронного микроскопа, обратил внимание на возможность формирования в определенных полимерах маленьких ямочек, которые имеют размер нанометров. И мало того, эти ямочки можно как создавать, так и сканировать, что позволило создать принципиально новую технологию записи информации. Плотность записи на таких устройствах памяти составляет порядка 1 Тбайт на квадратный дюйм, это 25 миллионов печатных листов на кристалле размером с почтовую марку. То есть на одном маленьком чипе памяти, созданном по этой технологии, можно записать 15-20 Гбайт информации. И в этом году такое запоминающее устройство было показано на выставке. Это не значит, что оно уже сегодня готово к промышленному выпуску, но я думаю, что через два-три года он уже будет возможен.
Существуют и другие основы для развития информационных технологий. Такие, например, как квантовая обработка информации, работы по которой тоже ведутся в недрах лабораторий IBM.
Перейдем от компонентов к системам. Здесь исследования IBM развиваются в направлении автономных систем. Уже сегодня есть прототип устройства памяти, который построен на блоках. Принцип, который в него заложен, - это принцип избыточности. Когда вы работаете в Интернете, незаметно, что произошла поломка в какой-то его части. Аналогично, если происходит поломка одного из дисков, то за счет избыточности дискового пространства информация защищается тем, что она хранится на других дисках и в нужный момент извлекается. Если в каком-то модуле этого устройства сломался один, другой или третий чип, за счет избыточности вы этого не заметите. К чему это ведет? К тому, что устройство не нужно будет ремонтировать в течение многих лет. Устройство не будет требовать обслуживания. Именно это IBM называет автономным компьютингом.
Другая сторона
автономных систем - это самоконфигурирование,
самозащита, самооптимизация и
Еще одно направление разработок IBM - создание все более мощных суперкомпьютеров. На сегодняшний день самый быстрый компьютер в мире - IBM BlueGene/L. Этот проект был начат в еще 1997 году и получил условное название Lizard, что в переводе с английского означает "ящерица", поскольку, по некоторым усредненным показателям, интеллект машины можно сравнить с интеллектом ящерицы. BlueGene/L - это уникальная система, которая приближает нас к моменту, когда интеллект машины достигнет уровня интеллекта человека. И я думаю, что не за горами то время, когда это произойдет. Вполне возможно, с настоящими темпами развития информационных технологий - к 2015 году.
А это несет действительно удивительные возможности. Один из примеров - совместный проект IBM и журнала National Geographic, который называется Genograhpic. Это проект, где высокая производительность суперкомпьютеров IBM позволяет быстро сделать расшифровку ДНК человека. И на основе этой информации специалисты National Geographic строят карту миграции человечества. Ученые уже сошлись во мнении, что человек зародился где-то в Африке, но интересно, как человечество мигрировало по нашей большой планете. И ключ к разгадке может дать расшифровка молекул ДНК.
Этот проект
открыт для всех желающих. В качестве
примера на сайте IBM есть миграционные
пути дальних родственников
Это только один из примеров того, что могут дать информационные технологии в областях, казалось бы, не имеющих никакого отношения к информационным технологиям. Другой интересный пример - услуга, называемая Web Fontane. Сегодня Интернет развивается семимильными шагами, практически каждый день публикуется порядка 50 миллионов новых страниц текста. Но найти информацию практически невозможно. Если вы наберете слово Linux, то поисковая система Google за одну секунду найдет миллионы ссылок. Я бы сравнил это с брандспойтом: вроде бы воды много, она обрушивается на вас огромным потоком, но напиться невозможно.
Как анализировать информацию более доступными методами? Как человеческим языком описать то, что вы хотите найти в этом море информации?
Вот здесь как раз помогает технология Web Fontane, которая родилась на базе вычислительных возможностей суперкомпьютера и программных разработок и позволяет анализировать все многообразие информации на вполне понятном языке. И сегодня она уже используется компаниями, которым, например, интересно проследить за изменением их репутации, анализируя все многообразие информации, существующей в мире. Этой технологией сегодня пользуются актеры, которым интересен отклик публики на те или иные их выступления. Другой пример - перед собранием акционеров одна компания решила проанализировать, не готовятся ли группами акционеров какие-либо действия. Ответ был получен, и что самое интересное, действительно были группы акционеров, которые планировали определенные действия на общем собрании акционеров компании. Это можно было проследить по тем письмам, обрывкам информации на сайтах, которые удалось проанализировать с помощью суперкомпьютера и программных наработок IВМ.
Наконец, последнее направление исследований, о котором я хотел бы рассказать, связано с виртуализацией вычислений. Как мы используем сегодня те вычислительные мощности, которые стоят у нас на столах? Если учитывать все 24 часа возможной работы, то, по статистике, Intel-системы загружены всего лишь на 5-10%. Существенно больше, на 70-80% загружены мэйнфреймы - и это понятно, они изначально рассчитаны на круглосуточное решение серьезных задач. В результате во всем мире простаивают огромные вычислительные мощности.
Естественно, встает вопрос, как эту мощность можно использовать? С помощью технологий виртуализации ресурсов. Один из примеров - это GRID-технологии, когда компьютеры объединяются в единую сеть и совместно используют свободные вычислительные ресурсы друг друга. На сегодняшний день существует уже достаточное количество работающих GRID-сегментов, в том числе есть они и в России.
Виртуализация вычислений приводит к тому, что вы не знаете, где реально происходит обработка задачи, которой вы занимаетесь сейчас. И возникает вопрос: а нужен ли вообще компьютер на рабочем столе? Может быть, достаточно терминала и клавиатуры? А вычисления будут производить автономные системы, сами за собой следящие и сами себя восстанавливающие.
Если и дальше продолжить эту мысль, то мы придем к идее ИТ как услуги. Я думаю, что в будущем не нужно будет даже покупать компьютер. Сегодня информационные технологии постепенно уходят от привычных ПК и становятся услугой. И это, наверно, самая интересная перспектива развития ИТ. Такой подход существенно более гибок подход. Заказчик получает ровно столько рабочих мест, сколько ему надо, платит только за то, что потребляет в данный конкретный момент, и может в любой момент отказаться от этой услуги, не потеряв инвестиций и не заморозив те средства, которые он вложил в покупку компьютеров.
Если посмотреть на развитие компании IBM, то оно подтверждает общую тенденцию. Объем услуг в общемировом хозяйственном обороте увеличивается. Если раньше, несколько веков назад, большая часть деятельности заключалась в выпуске сельскохозяйственной или производственной продукции, то сегодня 60-70% всего того, что делается в мире в области хозяйствования, - это услуги. Если посмотреть на нашу компанию, то сегодня IBM уже не столько производитель технических и программных средств, сколько сервисная компания. Услуги составляют 48% оборота компании на сегодняшний день.
А здесь интересно вернуться к прогнозам, с которых я начал, и с удивлением обнаружить, что, может быть, они и не столь ошибочны. Возможно, отсутствие необходимости иметь компьютер дома или на рабочем месте действительно будет реальностью. Если ИТ становится услугой, то зачем компьютер на рабочем месте? Не знаю, был ли один из основателей DEC провидцем, или история развивается по спирали, но самое интересное, что его предсказания сейчас сбываются. И то, что 640 Кбайт достаточно для любой работы, в условиях виртуализации вычислений тоже может быть верно. Может, и прав был Билл Гейтс. Вот такие интересные выводы. И это те перспективы, которые ждут всех нас.