Оценить:
 Рейтинг: 4.5

Нанотехнологии. Наука, инновации и возможности

Год написания книги
2006
<< 1 2 3 4 5 6 7 8 >>
На страницу:
5 из 8
Настройки чтения
Размер шрифта
Высота строк
Поля

В своей самой простой формулировке закон Мура сводится к утверждению, что плотность монтажа транзисторных схем возрастает вдвое за каждые 18 месяцев. Авторство закона приписывают одному из основателей известной фирмы Intel Гордону Муру. Строго говоря, в действительности эта формулировка представляет собой «смесь» разных прогнозов Мура, который в 1965 году предсказал ежегодное удвоение числа транзисторов в электронных чипах, обладающих наилучшим показателем эффективности, то есть минимальным отношением стоимость/качество. Позднее, в 1974 году Мур пересмотрел свою оценку и стал считать, что удвоение плотности монтажа должно происходить за два года. В общественном сознании эти предсказания постепенно слились в одно с периодом удвоения плотности монтажа 18 месяцев.

Основная идея закона Мура сводится к тому, что сложность электронных микросхем (в пересчете на стоимость) возрастает с некоторой постоянной скоростью, однако в настоящее время научная общественность воспринимает этот закон либо слишком абстрактно и общо, либо, наоборот, придает ему чрезмерно конкретный характер. Например, некоторые специалисты пытаются уточнить и конкретизировать закон, полагая, что речь идет только о двухмерной плотности монтажа транзисторных схем, а другие относят его к вычислительной мощности схемы вообще, то есть произведению скорость х плотность.

Поскольку нас интересуют в первую очередь долгосрочные прогнозы развития нанотехнологии, мы рассмотрим наиболее абстрактную форму наблюдаемой зависимости, позволяющей (но только формально!) проследить действие закона Мура в течение целого столетия. Кроме того, отклоняясь от собственно электронной техники, мы попробуем оценить значимость и действенность закона Мура вообще, то есть для других областей промышленности.

4.2.1. Важность закона Мура

Закон Мура долгое время связывали только с электронной промышленностью (чипы, коммуникационные системы, компьютеры), однако позднее оказалось, что им же определяется развитие и производство лекарственных препаратов, биоинформационных технологий, методов медицинской диагностики и многих других научно-технических направлений. Эта общность приобретает особое значение в наше время, когда многие «лабораторные» (то есть экспериментальные) исследования меняют свой характер, а ученые перестают изучать природу классическими методами «проб и ошибок», переходя к моделированию процессов на ЭВМ, что наглядно демонстрируют приводимые ниже примеры.

Недавно в Исследовательском центре НАСА имени Эймса была демонтирована большая аэродинамическая труба, использовавшаяся для продувки крупных моделей авиационно-ракетной техники. Причиной можно считать действие закона Мура, в соответствии с которым мощность и возможности вычислительной техники возросли настолько, что ученые могут математически моделировать турбулентные потоки обтекания, а не «запихивать» образцы техники в аэродинамические трубы. Разумеется, новый подход создает огромные возможности ускорения любых исследовательских работ.

Гигантская фармацевтическая компания Eli Lilly сейчас выпускает, образно говоря, в 100 раз меньше молекул, чем 15 лет назад, хотя число и разнообразие разрабатываемых и выпускаемых лекарств за это время значительно возросло. И в этом случае исследования и производственные процессы стали намного эффективнее, благодаря чему компания выбрала своим рекламным слоганом фразу «Меньше атомов, но больше битов!»

Известно, что основная проблема моделирования сводится к очень большому объему и высокой точности необходимых вычислений. Почти в любой области науки можно указать некий «порог точности» расчетов, преодолев который ученые могут отказаться от лабораторных экспериментов и перейти к использованию компьютерного моделирования. Уже сейчас во многих областях моделирование «конкурирует» с экспериментальными исследованиями в качестве движущей силы технического прогресса. В качестве примера преодоления «порога точности» в последние годы стоит упомянуть метеорологию (рост вычислительной мощности ЭВМ сделал возможным точное прогнозирование погоды на 6 часов вперед), испытание автомобилей на прочность (любые процессы столкновения можно изучать на компьютере, исследования динамики трехмерных белковых структур (фолдинг) и т. п.

Возвращаясь к проблеме формулировки закона Мура, отметим, что инженеры, связанные с производством компьютерных чипов и озабоченные оптимизацией производственных процессов, конечно, не занимаются подсчетом числа транзисторов в схемах. Точно так же потребителей вычислительной техники интересует не плотность монтажа транзисторов, а обобщенные рабочие параметры созданного на их основе компьютера (прежде всего скорость обработки информации и объем запоминающих устройств). Сказанное может быть отнесено и ко многих другим технологиям, поэтому имеет смысл «отделить» закон Мура от конкретного производства транзисторов (для которого он был первоначально предложен), то есть избавить его, образно говоря, от транзисторной «метрики». При этом закон становится весьма общей закономерностью научно-технического развития и может быть использован для создания долгосрочных прогнозов.

Например, в вычислительной технике действие закона Мура может быть гладко «аппроксимировано» примерно на 100 лет назад, то есть продлено «назад» до момента, когда никакой полупроводниковой техники вообще не существовало. Как показано на рис. 4.1, история вычислительной техники за последнее столетие может быть представлена в виде пяти сменяющих друг друга периодов, соответствующих указанным на рисунке парадигмам развития (электромеханические калькуляторы, релейная техника, вакуумные лампы, транзисторы, интегральные схемы). В этом случае собственно закон Мура (в его строгой исходной формулировке) может быть отнесен только к пятой парадигме, однако легко заметить, что характеристики вычислительных устройств за 100 лет развития действительно очень точно соответствуют общему закону экспоненциального роста. Говоря более просто, за последнее столетие мощность, или производительность вычислительной техники (computational power), в среднем удваивалась каждые два года (в пересчете на некоторую фиксированную цену, например, на 1000 долларов). Последние тридцать лет удвоение характеристик происходило в течение каждого года. Вертикальная ось на рис. 4.1 является логарифмической, так что горизонтальные линии на рисунке соответствуют возрастанию характеристик в 100 раз. Строго говоря, экспоненциальному росту должна была бы соответствовать прямая линия по диагонали, но рисунок взят из книги Рэя Курцвайля, который обнаружил некоторое ускорение и описал его, используя так называемую двойную экспоненту.

Рис. 4.1. Развитие вычислительной техники за последнее столетие в соответствии с формальной «версией» закона Мура Каждая точка соответствует параметрам конкретного вычислительного устройства (из книги Рэя Курцвейля)

Каждая точка относится к конкретной модели, создаваемой в попытке добиться рекордных показателей вычислительной техники. Очевидно, что за каждой точкой стоят интересные, драматические события в жизни конкретных талантливых людей (интересно, что все они действовали практически независимо друг от друга, но параметры создаваемых ими устройств почти точно укладываются на предсказуемую кривую). Например, первая точка на рисунке соответствует электромеханическому калькулятору, созданному в 1890 году для обсчета результатов переписи населения США. Одна из точек соответствует знаменитому устройству, позволившему в годы Второй мировой войны расшифровать используемый немцами код «Энигма» (этому событию посвящено несколько книг и кинофильмов), другая – той машине, которая сумела предсказать неожиданную победу Эйзенхауэра на президентских выборах 1952 года вопреки мнению всех политологов и средств массовой информации! Какие-то точки означают известные всем системы Apple II и Cray и т. д. Этот процесс продолжается, так как мы продолжаем постоянно совершенствовать технические параметры, алгоритмы вычисления и программное обеспечение ЭВМ, продолжая и развивая приведенную на рисунке кривую. Для того чтобы продемонстрировать ее возможности в настоящем, я просто обратился к рекламным проспектам, выписал параметры современного дешевого и доступного персонального компьютера (фирма Wal-Mart.com) и нанес еще одну дополнительную точку на рисунок Курцвейля (серая точка в правом верхнем углу).

Особо следует подчеркнуть тот факт, что кривая практически не связана с экономическими циклами развития, то есть на ней нельзя уловить воздействия кризисов промышленности (включая знаменитую Великую депрессию 1929 года в США), двух мировых войн и иных геополитических событий. Конечно, эти события и связанные с ними важнейшие экономические факторы (скорость внедрения новой техники, нормы прибыли, доходность вложений и т. д.) приводят к случайному разбросу параметров точек на рисунке, однако общая долговременная тенденция представляется очевидной.

В соответствии с описанными закономерностями любая отдельная новая технология (например, связанная с производством так называемых комплементарных МОП-структур) будет проходить в своем развитии одинаковые стадии, соответствующие S-образной кривой. При каждом конкретном процессе внедрения технического продукта наблюдается медленный рост в начальный период развития, резкое ускорение в фазе широкого внедрения и естественное замедление, обусловленное насыщением рынка и падением спроса из-за появления новой техники. Смысл закона Мура состоит в том, что при этом, однако, наиболее общие и важные технические характеристики целого класса устройств (быстродействие, объем памяти, ширина полосы пропускания и т. п.) всегда изменяются по экспоненте, как-то неожиданно объединяя разные технологии, каждая из которых описывается собственной последовательностью S-образных кривых развития.

Если история техники имеет некий смысл и общие закономерности, то действие закона Мура приведет к обнаружению новых структур и материалов, свойства которых будут качественно превышать характеристики упомянутых кремниевых комплементарных МОП-структур. В истории вычислительной техники за последнее столетие уже сменилось пять парадигм, и этот процесс будет продолжаться.

4.2.2. Проблемы современной парадигмы

Гордон Мур за прошлые десятилетия неоднократно посмеивался над скептиками, предсказывавшими скорую «кончину» сформулированного им закона, однако нельзя не заметить, что традиционная полупроводниковая техника действительно подходит к некоторым последним границам развития, обусловленным фундаментальными законами природы. Кстати, недавно об этом заявил и сам Мур, признавший, что его закон к 2017 году потеряет первоначальный смысл для любых кремниевых устройств.

Одна из главных проблем состоит в том, что увеличение плотности монтажа неизбежно приводит к повышению температуры работающих устройств, так что уже сейчас фирмы-производители озабочены поиском возможностей охлаждения схем, вырабатывающих (в пересчете) около 100 ватт энергии на 1 см

. Существующие технологии явно исчерпали себя, так что в долговременной перспективе следует ожидать принципиально нового, прорывного подхода, то есть возникновения новой парадигмы.

Еще более сложной выглядит проблема физических размеров устройств, поскольку технологии вплотную приблизились к размерам отдельных атомов. Например, уже сейчас оксидные полупроводниковые электроды в выпускаемых фирмой Intel изделиях имеют толщину 1,2 нм, а в ближайшем будущем фирма обещает довести толщину до трех атомов. Естественно, что никто не может ожидать дальнейшего уменьшения размеров вдвое и т. д. за счет разработки новых материалов изоляции. Сама фирма связывает дальнейший прогресс с наноструктурами из принципиально новых материалов (диэлектрики с высоким значением коэффициента k и новые типы металлических контактов), к реальному использованию которых она должна приступить в 2007 году. Примечательно, что ни одна из фирм, занятых коммерческим производством, уже не создает привычные планы разработок на ближайшие 50 лет (так называемые «дорожные карты») в области КМОП-структур. Основной проблемой в использовании тонких оксидных электродов и диэлектриков с высоким значением коэффициента k остается возможность так называемого квантового туннелирования. По мере уменьшения толщины оксидного слоя туннельный ток управляющего электрода может достигать значений тока канала или даже превосходить его, после чего фактически теряется возможность регулирования работы транзистора.

Другая серьезная проблема состоит в том, что из-за технических сложностей чрезвычайно возрастает стоимость производственных линий по изготовлению полупроводниковых устройств, или чипов. Цена оборудования такой производственной линии также примерно удваивается каждые три года (забавно, но такая закономерность получила название второго закона Мура) и сейчас уже составляет около 3 миллиардов долларов. Другими словами, нам удается уменьшать размеры транзисторов только за счет резкого удорожания стоимости оборудования и производства. Удорожание производства объясняется прежде всего возрастающей стоимостью литографического оборудования, которое используется для создания многослойных субмикронных паттернов (шаблонов) на полупроводниковых пластинах. В настоящее время производственники возлагают очень большие надежды на так называемую наноимпринтную литографию и молекулярную электронику, что обещает существенно снизить расходы и повысить качество производимых изделий.

Наша фирма уже сейчас инвестировала значительные капиталы в компании, которые стараются угадать характер следующей смены общей парадигмы в производстве элементов вычислительной техники. Мы уверены, что принципиально новые технические решения будут найдены и кривая, описывающая действие закона Мура на рис. 4.1, будет расти и после 2017 года (несмотря на скептицизм самого Гордона Мура!). С другой стороны, выше уже отмечалось, что закон Мура сложным образом связан с отношением характеристики/стоимость, вследствие чего некоторые исследователи в поисках краткосрочных решений пытаются изменить это соотношение именно за счет массовости, то есть резкого удешевления цены отдельных элементов. Читатель может представить себе огромные рулоны (типа бумажных обоев), узоры на которых составлены из массы исключительно дешевых транзисторов. Одна из сотрудничающих с нами компаний сейчас осваивает процессы «осаждения» традиционных транзисторных структур на полимерных матрицах при комнатной температуре, что позволяет организовать массовое и очень дешевое производство некоторых изделий, которые ранее изготовлялись по весьма сложной технологии с выращиванием кремниевых кристаллов, вырезанием из них и обработкой сверхтонких пластин и т. д.

4.3. Молекулярная электроника

При размышлениях о смене парадигмы в вычислительной технике и новых материалах на следующий период развития (его можно назвать посткремниевым) сразу вспоминается молекулярная электроника, которая постепенно становится нанотехнологической альтернативой КМОП-транзисторам. Молекулярные переключатели обещают революцию в вычислительной технике, так как они позволят вместо планарного формирования элементов КМОП-структур (методами осаждения) использовать их объемные сочетания, что приведет к решительным изменениям в методах производства и компоновки схем. Возможно, в начальный период такие молекулярные переключатели будут применяться лишь в некоторых «узких местах» схем, чтобы можно было дольше использовать процессы и стандартные внешние соединения, к которым привыкли специалисты за десятилетия развития кремниевой технологии.

Например, нанотехнологическая фирма Nantero в Вобурне (штат Массачусетс) использует углеродные нанотрубки, «подвешенные» к металлическим электродам на кремнии таким образом, что они образуют так называемые энергонезависимые запоминающие устройства (nonvolatile memory), или чипы с очень высокой плотностью соединений. Идея метода заключается в том, что слабые молекулярные (ван-дер-ваальсовские) силы способны удерживать изогнутые нанотрубки в заданном положении практически бесконечно долго, не требуя дополнительных затрат энергии. К этому можно добавить, что углеродные нанотрубки имеют очень малое сечение (примерно 10 атомов в диаметре) и обладают прекрасными прочностными характеристиками. Будучи в 6 раз легче стали, этот материал в 30 раз прочнее ее, вследствие чего нанотрубки могут одновременно выполнять роль проводов, микроконденсаторов и транзисторов. Помимо сказанного, новая технология позволяет значительно повысить рабочие параметры устройств (быстродействие, плотность монтажа и т. п.) и снизить их стоимость. Одним из важнейших преимуществ энергонезависимых запоминающих устройств выступает то, что на их основе можно создать «мгновенно включающиеся» персональные компьютеры.

Некоторые компании (например, Hewlett-Packard и ZettaCore) пытаются создавать запоминающие элементы на поверхности кремния, используя органические молекулы, способные к самосборке под воздействием химических сил, причем общий ход процесса задается заранее нанесенными на кремниевый чип паттернами или соответствующей экспозицией.

Ниже перечисляются некоторые основные характеристики устройств и их особенности, позволяющие реально рассматривать молекулярную электронику в качестве главного направления для смены парадигмы в изготовлении элементов вычислительной техники, то есть для дальнейшего развития по закону Мура.

• Размеры. Особую привлекательность молекулярной электронике придает то, что она потенциально позволяет осуществить принципиальную миниатюризацию элементов вычислительной техники, сравнимую с той, которая произошла при переходе к пятой парадигме прошлого века (производство интегральных схем) и обеспечила рост характеристик в соответствии с законом Мура еще на тридцать лет. В 2002 году специалисты фирмы IBM, пользуясь сканирующим туннельным микроскопом, разработали методику манипуляций с отдельными молекулами моноксида углерода, что позволило им создать «триодный» анализатор импульсов на поверхности меди. Размеры этого устройства были в 260000 раз меньше, чем у соответствующей схемы в коммерчески выпускаемых чипах. Воображение человека с трудом воспринимает такие огромные цифры, но для сравнения размеров молекул и создаваемых человеком устройств читатель может представить себе каплю воды и вспомнить, что число молекул в ней в 100 раз превышает число всех транзисторов во всех электрических схемах, выпущенных промышленностью. Особую роль для миниатюризации играет то, что в природе молекулы располагаются в объеме, в то время как создаваемые нами интегральные схемы всегда представляют собой чрезвычайно сложные и тонкие структуры, располагающиеся только на плоской, двухмерной поверхности весьма большой (естественно, по молекулярным масштабам!) и совершенно не используемой кремниевой подложки.

• Мощность. Одна из главных причин, по которой конструкторы не могут создавать объемные структуры из транзисторов, заключается в тепловыделении, приводящем к расплавлению кремниевых подложек. Строго говоря, даже самые современные транзисторы являются крайне неэффективными устройствами, и их коэффициент полезного действия значительно уступает, например, двигателям внутреннего сгорания. Потребляемая энергия расходуется транзисторами в процессе вычислений крайне расточительно и бесполезно. Для сравнения укажем, что человеческий мозг по эффективности энергопотребления и способности к расчетам превосходит лучшие из существующих процессоров в 100 миллионов раз, уступая последним только в быстродействии (менее 1 кГц). Эффективность работы мозга (в качестве вычислительного устройства) обеспечивается исключительно высокой плотностью внутренних связей в очень небольшом объеме (примерно 100 триллионов синапсов связывают между собой 60 миллиардов нейронов). Будущее вычислительной техники связано только с резким снижением энергопотребления (в пересчете на количество операций) и повышением скорости самих операций.

• Стоимость производства. Создаваемые в настоящее время молекулярные электронные устройства очень просты и чаще всего представляют собой «покрытия» или самоорганизующиеся структуры из органических соединений. Собственно говоря, требуемая от них сложность как бы предварительно «заложена» в сложную структуру синтезируемых молекул, поэтому процесс изготовления может быть сведен упрощенно к «расплескиванию» химической смеси на подготовленную кремниевую поверхность. Сложность устройства в целом при этом обеспечивается не сложностью технологических процессов обработки и инженерного замысла, а свойствами самих молекул. Нанотехнологии концептуально отличаются от привычных процессов примерно так же, как биологический рост организма отличается от вытачивания детали на станке. Главное отличие заключается в том, что сложность в наноструктурах возникает в результате идущих «снизу вверх» процессов, то есть «задается» какими-то внутренними конформационными изменениями материала, а также слабыми молекулярными силами и поверхностным взаимодействиям участвующих в процессе молекул. Легко заметить, насколько такие процессы отличаются от обычной инженерной технологии изготовления объектов «сверху вниз», основанной на точных операциях и статическом состоянии обрабатываемых изделий.

• Возможность производства при низких температурах. Одной из замечательных особенностей биологических процессов является то, что они позволяют создавать очень сложные объекты без применения температур около тысячи градусов, высокого вакуума и т. п. Большинство реакций органических молекул осуществляется при комнатной температуре или температуре человеческого тела. В массовом производстве это означает переход от дорогостоящих и сложных в изготовлении кристаллических подложек к гораздо более дешевым и удобным полимерным материалам.

• Элегантность технических решений. Немаловажным фактором выступает то, что молекулярная электроника зачастую позволяет находить, как говорят инженеры, элегантные технические решения многих сложных проблем, особенно в области создания так называемых энергонезависимых и «внутренне цифровых» (inherent digital) запоминающих устройств. Для придания этих абстрактно задуманных характеристик устройствам на основе КМОП-структур, технологам приходится применять самые «неестественные» и сложные методы обработки. В связи с этим интересно отметить, что многие объекты молекулярной электроники исходно являются энергонезависимыми и «цифровыми»!

Существует множество других интересных проектов (от создания квантового компьютера до использования ДНК в качестве структурирующего материала для направленной сборки нанотрубок). Число таких разработок постоянно возрастает, а объединяет их лишь то, что все они с полным правом могут быть отнесены к нанотехнологиям.

4.4. Коммерциализация нанотехнологии

В определении нанотехнологии часто используется или упоминается возможность манипуляции и управления объектами нанометрического размера (обычно речь идет о диапазоне 1—100 нм). Давно замечено, что использование масштаба длины в определении целой науки выглядит необычным и даже странным (ведь никому не приходит в голову, например, называть какие-то технологии «дюймовыми»!). Венчурных капиталистов интересуют прежде всего какие-то качества материалов или необычные процессы, позволяющие им создавать новые, нестандартные товары и услуги. Нашей фирме часто приходится консультировать так называемые старт-ап, то есть венчурные фирмы, создаваемые именно для «раскрутки» новых товаров, основанных на передовых технологиях, новейших научных разработках и т. п. Обычно мы начинаем разговор с клиентами со стандартных вопросов, относящихся к мотивации их деятельности (почему вас это интересует? почему сейчас? почему вы не занялись этим бизнесом 10 лет назад?). При разговоре о нанотехнологических проектах мы практически всегда слышим, что в результате последних исследований появилась возможность производить очередной наноматериал с необычными свойствами, которые никогда ранее не наблюдались в известных веществах.

Вещества и процессы в нанометрическом диапазоне размеров обладают множеством необычных характеристик, которые кажутся нам странными просто в силу того, что наши органы чувств и даже способность к восприятию сформировались в «большом» (макроскопическом и статистическом) мире. Действительно, мы не способны видеть отдельный фотон, заряд электрона или квант энергии, точно так же как молекулярные взаимодействия. Человек видит и описывает лишь макроскопические, усредненные объекты и явления, проявляющиеся в больших масштабах (типа трения и т. п.). При переходе к наноразмерам перестают действовать и становятся неточными привычные законы ньютоновской физики, место которых занимают постулаты квантовой механики. Я еще раз повторю, что нанотехнология вовсе не означает простое уменьшение размеров и использование связанных с этим преимуществ. Речь идет о принципиальном изменении законов природы на этом уровне. Для наноразмерных объектов естественными становятся квантовое «переплетение» событий, туннелирование (прохождение частиц через преграду), баллистический перенос электронов, протекание жидкостей без трения и многие другие загадочные явления, которые ставили в тупик всех физиков-теоретиков, начиная с Эйнштейна.

В качестве простого примера «разрыва» свойств вещества при переходе от обычных размеров к атомарным можно рассмотреть поведение обычной алюминиевой банки из-под пива. Если вам удастся измельчить эту банку в алюминиевый порошок с размерами частиц 30–40 нм, то вам придется обращаться с ним крайне осторожно, так как он представляет собой мощную взрывчатку (такую алюминиевую пудру военные используют в качестве катализатора горения ракетных топлив). Другими словами, мы получаем возможность целенаправленного и существенного изменения свойств вещества изменением размера составляющих его частиц. Например, в случае с алюминием принципиальное значение имеет изменение отношения площадь/объем, а возможно, и нарушение межатомных расстояний в кристаллической решетке из-за поверхностных эффектов.

4.4.1. Инновации происходят на границе познания

Прорывные инновации, являющиеся движущей силой развития и обновления технологий, естественно, происходят, образно выражаясь, на границе познания, то есть на передовых рубежах науки. Говоря в самом широком смысле и используя биологическую терминологию, можно сказать, что перспективные инновации не могут возникать в теплой, безопасной и уютной обстановке середины «стада». Инновации можно уподобить биологическим мутациям, происходящим где-то на краю среды обитания, то есть на границе выживаемости и поиска новых возможностей. Интересно, что в теории сложности объекты, обладающие структурой и сложностью (как физикоматематическим свойством), тоже возникают на границе хаоса, где проходит линия раздела между областями предсказуемого поведения систем и хаотической неопределенности. Точно так же в науке ценные прорывные инновации чаще всего возникают в междисциплинарных, необычных и комплексных исследованиях, далеких от академического формализма.

Возможно, особая притягательность и очарование нанотехнологий связаны именно с человеческим фактором отношения к науке. Нанонаука неожиданным образом выявляет целые области взаимного «перекрывания» фундаментальных наук и создает возможности для их «перекрестного опыления» идеями из чуждых научных дисциплин (квантовая физика и химия, биология, вычислительная техника и т. д.). Дело в том, что в процессе своего исторического развития каждая из академических наук выработала собственную систему ценностей, парадигм и даже собственный язык (или хотя бы терминологию), которые изолируют и отделяют ее от смежных дисциплин. Нанонаука (в самом общем смысле) дает ученым возможность вновь объединить свои системы и языки, предлагая им общие методы и объекты исследования. Объединяющее положение нанонауки среди прочих дисциплин схематически представлено на рис. 4.2.

Рис. 4.2. Нанонаука представляет собой «перекресток» многих научных дисциплин

Развитие нанотехнологии вызывает интересные и ценные дискуссии в учебных заведениях и правительственных лабораториях, способствуя междисциплинарным исследованиям. Во многих институтах открываются отдельные факультеты и учебные центры, специализирующиеся в области нанонауки и нанотехнологии. Интересно, что здание факультета по нанотехнологиям в Стэнфордском университете располагается между учебными корпусами других специальностей (инженеры, вычислительная техника, медицина), что как бы символизирует объединяющую роль новой науки. Более того, эту объединяющую и интегрирующую функцию она сохраняет и вне академической сферы, неожиданно создавая новые и непривычные комбинации в бизнесе и социальных оотношениях. Например, нанотехнологические товары и изделия имеют самое разное назначение (солнечные батареи, компьютерные чипы, лекарственные препараты и т. п.), что привело к активизации и появлению новых связей между специалистами по маркетингу, распределению и продаже в этих далеких отраслях. Расширение и обновление таких связей практически всегда оказывает благотворное воздействие на участников, создавая возможности для обмена знаниями и методами (физики назвали бы это синергетическим эффектом).

4.4.2. Хронология событий на рынке нанотехнологий

В литературе уже устанавливается простое и короткое название нанотех для коммерческих нанотехнологий, которым я буду пользоваться ниже для обозначения уже существующих прорывных инновационных проектов. Они охватывают множество разных производств (электроника, энергетика, фармацевтическая промышленность, материаловедение), но пока в основном находятся на начальной стадии развития. В дальнейшем ситуация может сильно измениться – Национальный научный фонд США предсказывает рост общего объема нанотеха через 15 лет до 1 триллиона долларов!

Вообще говоря, в далекой перспективе использование нанотехнологий приведет к революционным изменениям практически во всех отраслях промышленности, поскольку речь идет о весьма общих возможностях управления веществом на атомарном уровне, включая неорганические, органические и даже биологические структуры и вещества. При этом само управление новыми производствами может поменять свой характер и превратиться из аналогового в цифровое.

Футуристические и фантастические прогнозы развития нанотеха приносят в сущности большую пользу, поскольку привлекают к новой науке и ее проблемам внимание молодых и самых одаренных исследователей. Ученых всегда привлекали сложные и интересные задачи, а нанотехнология представляет им прекрасный шанс проявить свои способности.

Большинство венчурных капиталистов осознает реальность нанотеха, так что основной проблемой становится правильное вложение капиталов и расчет временных сроков коммерциализации тех или иных разработок. Короче говоря, проблема сейчас состоит в выборе объемов и секторов вложения инвестиций. Учитывая разнообразие возможных приложений нанотеха, существующая ситуация означает для серьезного аналитика и инвестора решение сложнейшей задачи: «прогонку» массы вариантов через интеллектуальный фильтр экспертной и экономической оценки для выделения наиболее перспективных направлений развития рынка. Такая оценка означает непрерывный процесс сбора информации (например, постоянно возникающих бизнес-планов разнообразных производств) и ее последующей экономической, технической и чисто интуитивной оценки. Кроме того, нельзя не упомянуть два блестящих научных достижения последних лет, вызывавшие большой интерес у научной общественности и в коммерческих кругах. Я говорю о расшифровке генома человека и получении визуальных изображений на основе выходных сигналов сканирующего туннельного микроскопа (читатель наверняка видел логотип фирмы IBM, написанный отдельными атомами ксенона на кремниевой поверхности). Такие события, символизирующие прогресс так называемой диджитализации, или оцифровывания (информации) в физике и биологии, служат пропаганде научных достижений и способствуют появлению инновационных проектов.

В самое последнее время число публикаций, посвященных нанотеху, значительно возросло, напоминая о временах появления Интернета. Речь идет не только о популярных статьях, но и о научных работах, количество которых за последнее десятилетие увеличилось примерно в 10 раз. Еще поразительнее выглядит статистика по патентам, выдаваемым в области различных приложений нанотехнологий. Согласно данным Ведомства США по патентам и торговым маркам (USPTM), их число ежегодно возрастает в три раза на протяжении последних семи лет. О стремлении захватить рынки и методы производства с очевидностью и даже какой-то символичностью свидетельствует тот факт, что в упомянутой выше фирме IBM уже сейчас вопросами нанотехнологий занимается больше юристов, чем инженеров!

В связи с последними действиями в рамках Национальной нанотехнологической инициативы федеральное финансирование этих исследований продолжается и возрастает. Например, в 2004 году намеченная сумма 847 миллионов была не только предоставлена (несмотря на общие сокращения в бюджете), но и повышена. Среди статей федеральных расходов на науку нанотехнология занимает второе место (уступая только расходам на освоение космоса). Америка не одинока в своих пристрастиях: хотя расходы США на эти цели в 2003 году составили 1/3 от общемировых, Япония например, затрачивает на эти цели даже большие суммы.

Именно финансирование со стороны федерального правительства позволяет развивать инновационную деятельность в области нанотехнологий. Практически все компании, которым наша фирма оказывает юридические и консалтинговые услуги, относятся к разряду так называемых «раскручиваемых» и занимаются тем, что пытаются внедрить новейшие технологические разработки в промышленное производство. При этом они пользуются результатами исследований, полученных в высших учебных заведениях или государственных лабораториях (то есть используют передаваемую интеллектуальную собственность). Очень часто такие компании нуждаются в специальном оборудовании и дорогостоящих лабораториях для дополнительных исследований, необходимых для «подгонки» результатов к выпуску каких-то конкретных продуктов (нормальный предприниматель, конечно, не держит такое оборудование, согласно поговорке, «в углу гаража»). Ситуация с необходимостью проведения дополнительных исследований является типичной для всех так называемых стартовых (start-up) и инновационных компаний.
<< 1 2 3 4 5 6 7 8 >>
На страницу:
5 из 8