А Б В Г Д Е Ж З И К Л М Н О П Р С Т У Ф Х Ц Ч Ш Щ Э Ю Я
0-9 A B C D I F G H IJ K L M N O P Q R S TU V WX Y Z #


Чтение книги "Журнал «Компьютерра» №31 от 30 августа 2005 года" (страница 1)

   НОВОСТИ: «Геном»: перезагрузка

   На удивление спокойно, без победных фанфар и вселенского шума прошло такое, несомненно, грандиозное событие, как завершение проекта «Геном человека» (черновой релиз состоялся в 2001 году, о полной расшифровке ДНК объявлено в 2003-м). Для сдержанности, конечно, есть причины: как ни гляди, работа только началась. С практической точки зрения, выяснение генетической подоплеки тех или иных болезней требует сопоставления многих индивидуальных вариантов структуры генома. С точки же зрения науки, созерцание кода само по себе никак не отвечает на вопросы о механизмах генетического контроля. Мало прочитать, нужно понять.
   Американский National Human Genome Research Institute (NHGRI), головная организация «Генома человека», теперь открыла проект ENCODE (ENCyclopedia Of DNA Elements). Его задача – не распыляясь, «рассмотреть под лупой» отдельные зоны генома (44 участка, составляющие в совокупности около 1% его длины) для детального мониторинга функций, проведения эволюционных сопоставлений и выявления индивидуальных вариаций.
   «Нам открывается новый мир, гораздо более сложный, чем сам мир генома», – говорит об изучении эпигенетических (управляющих работой генетического аппарата) связей канадский исследователь Моше Сциф (Moshe Szyf). Бинг Рен (Bing Ren) из Калифорнийского университета и его коллеги в качестве первоочередной цели рассматривают картирование промоторов – регуляторных последователей ДНК, обеспечивающих включение или выключение генов. Разительные порой отличия между типами клеток, несущими, тем не менее, один и тот же геном, а также функциональные переключения клеток непосредственно зависят от промоторов. Использовав «ДНК-чипы» от NimbleGen Systems и разработанные в университете изощренные компьютерные алгоритмы, исследователи уже идентифицировали местоположение и структуру 10 тысяч регуляторных участков в клетках соединительной ткани (фибробластах) человека; 6 тысяч из них локализованы впервые. Сообщается о том, что некоторые гены могут контролироваться сразу несколькими промоторами, а также о выявлении регуляторов в зонах, в которых их видеть не ожидали.
   На разгадку процессов регуляции нацелен и проект «Эпигеном» (Human Epigenome Project). Вопреки всеобъемлещему названию, в фокусе внимания одна-единственная проблема – метилирование ДНК (этой модификации частично подвергается один из нуклеотидов, цитозин). Зачем это нужно у бактерий, разобрались, а вот смысл метилирования у млекопитающих остается недостаточно проясненным. Теперь, видимо, ненадолго.
   Амбициозная цель, которую ставят перед собой ученые, – выход на возможность определения последовательности нуклеотидов ДНК (секвенирования) у отдельных людей. Ведь ДНК у всех разная, и то, что мы называем расшифрованным геномом, – лишь случайным образом отобранные для исследования образцы, заведомо отличающиеся от ДНК других людей. Подобный прорыв открыл бы путь тому, что уже получило название «персонализированной медицины» и является долгожданным воплощением врачебного идеала «лечить не болезнь, а больного», – диагностика и лечение могли бы полностью учитывать генетическую индивидуальность.
   Пока что прямая ДНК-диагностика ограничивается несколькими сотнями тестов, касающихся болезней с совершенно очевидной генетической предрасположенностью и требует испытания для идентификации каждого патологического гена. Идея «личностной фармакологии» официально получила «добро» от Управления по контролю за пищевыми продуктами и лекарственными средствами США (FDA), однако пока что даже в самой обстоятельной базе данных по фармакогенетике PharmGkb (www.pharmgkb.org) генетические связи приводятся только для 400 из 4000 аннотированных лекарств. А вот проведя широкие сопоставления полных записей структуры ДНК и имея на руках генетический профиль конкретного человека, можно было бы сразу оценить все его врожденные предрасположенности к тем или иным болезням и точно подстроить медикаментозную терапию под генетические особенности.
   Для очередной атаки на код наследственности готовится соответствующее обновление методического инструментария. Способов секвенирования придумано немало, но основной «рабочей лошадкой» был и остается метод Сэнджера. Сначала двуспиральную ДНК разделяют на нити, затем на матрице однонитевой ДНК с помощью фермента ДНК-полимеразы начинают вновь воссоздавать вторую цепь. При этом некоторым специальным способом подается команда прекратить синтез, как только он дойдет до определенного нуклеотида (аденина, скажем, или тимина). Длина недостроенных фрагментов (указывающая, в какой позиции прервана реакция и, следовательно, находится соответствующий нуклеотид) определяется с помощью электрофореза. Эта методика достаточно трудоемка, но новые нанотехнологические подходы обещают резко ускорить процесс и перевести прочтение ДНК индивидуума из разряда научных подвигов в ранг бытовой повседневности.
   Марсель Маргулис (Marcel Margulies) и его коллеги из 454 Life Sciences Corporation предложили перенести реакцию из раствора на поверхность микроскопических шариков, к которым и прикрепляется анализируемая ДНК. Разработка, выполненная фирмой, позволяет получать результат не исследуя продукты полимеразной реакции, а непосредственно наблюдая за ее ходом. Шарики попеременно орошаются растворами, содержащими один из четырех нуклеотидов. Когда подается нуклеотид, нужный для продолжения цепи, это видно по свечению, возникающему от превращений продуктов реакции под влиянием люциферазы (фермент из светлячков). Руководит процессом высоко оцененное специалистами программное обеспечение под Linux. В качестве рекламного шага исследователи объявили о предстоящей быстрой расшифровке личной ДНК Джеймса Уотсона, соавтора открытия двуспиральной структуры ДНК. Аналогичный подход, использующий четыре красителя (по числу нуклеотидов) и флуоресцентный микроскоп, предложили Джей Шендур (Jay Shendure) и ее коллеги из Гарвардского медицинского колледжа. Потенциально новые технологии на два порядка производительнее и гораздо дешевле метода Сэнджера.
   С октября прошлого года инновации в области секвенирования финансирует и упомянутый выше институт NHGRI. Гранты серии «$100000 за геном» подразумевают выведение в обозримые сроки и с опорой на существующие методики полного секвенирования ДНК на обозначенный ценовой рубеж (сейчас это стоит 10 млн. долларов). Гранты же линейки «$1000 за геном» выдаются в предвкушении радикального прорыва (в августе объявлено об увеличении их количества – возможно, под влиянием успехов коллег-конкурентов). В качестве инструментов для совершения революции в секвенировании предлагаются самые разные технологии с использованием нанопор, синтетических нуклеотидных аналогов, измерения электрических свойств нанообъектов и др. Кстати, гранты далеко не столь скромны, как наименования рубрик, – от половины до нескольких миллионов долларов.
   Ждет ли нас в близком будущем общедоступное секвенирование по цене средненького ноутбука – бог весть. Однако ученые мужи излучают оптимизм.

   Terralab.ru: Overdrive для монитора

   О технологии с громким названием Overdrive я впервые услышал во время весенней поездки на Computex 2005 – о ней несколько раз вскользь упоминали сотрудники BenQ, показывавшие нам завод и исследовательскую лабораторию фирмы. А чуть позднее, при посещении завода третьего по величине в мире производителя LCD-панелей AU Optronics (AUO), меня удивило изобилие панелей, сделанных на основе, казалось бы, совершенно непопулярной технологии MVA. Однако «экскурсоводы» в обоих случаях предпочитали говорить не о технологических, а о финансовых достижениях своих компаний, ограничиваясь демонстрацией «железок» и лабораторий, так что Overdrive на время забылась.
   Вспомнилась же мне эта история много позднее, когда мой коллега рассказал о появлении на рынке нового поколения мониторов, в которых принципиально решена проблема слишком большого времени отклика матрицы. Заинтересовавшись, я отправился на поиски информации об использующейся в этих мониторах технологии.
Кому это нужно?
   Каждый (суб)пиксел в современной активной LCD-панели представляет собой довольно сложную конструкцию из транзистора, конденсатора и резистора, управляющих напряжением на электродах, между которыми зажата крошечная капля жидких кристаллов. В зависимости от этого напряжения изменяется ориентация кристаллов в этой капле, а в зависимости от ориентации субпиксел определенным образом поворачивает плоскость поляризации проходящего через него света. Поскольку вся конструкция, в свою очередь, зажата между двумя поляроидами, первый из которых поляризует свет в одном направлении перед прохождением его через массив субпикселов, а второй – отсекает часть света в зависимости от направления поляризации, то панель пропускает в данной точке то или иное количество света. Сетка управляющих электродов и «встроенные» в каждый субпиксел транзисторы позволяют электронной схеме, управляющей работой панели, подавать необходимый уровень напряжения на любой из субпикселов, образующих матрицу, а встроенные в субпикселы конденсаторы позволяют это напряжение на непродолжительное время «запоминать» – до следующего цикла обновления изображения на экране. Остается только равномерно осветить LCD-панель специальным источником (поток света от которого матрица будет «модулировать») – и жидкокристаллический монитор готов (рис. 1).

***

   Грубая, упрощенная схема устройства субпиксела TFT-матрицы. При снятии напряжения с нужного «горизонтального» электрода в сетке, «открываются» транзисторы, соединяющие конденсаторы субпикселов с «вертикальными» электродами, и через эти электроды на всех субпикселах данного «ряда» устанавливается требуемый уровень напряжения. Эта процедура изменяет ориентацию жидких кристаллов в субпикселах, изменяет угол вращения поляризации света этими кристаллами и регулирует количество света, проходящего через субпиксел. Цветные светофильтры позволяют создавать цветные TFT-матрицы, набирая их из субпикселов разных цветов; пленка из материала с высоким коэффициентом преломления значительно увеличивает углы обзора.
   Как видим, технология получается очень сложной и дорогой в производстве: неудивительно, что даже очень сложные по электронике и внутреннему устройству качественные CRT-мониторы до недавних пор были гораздо дешевле. Но даже если отойти от «производственных» проблем, то нетрудно заметить, что в описанной конструкции наличествует «механический» элемент – поворачивающиеся кристаллы; и время изменения цвета точки на экране определяется отнюдь не возможностями электронной схемы, управляющей напряжениями на субпикселах, а временем, которое требуется кристаллам, чтобы занять положенную ориентацию. Это время варьируется в зависимости от подхода к поляризации света (типа матрицы) и от «рецептуры» жидких кристаллов; в современных матрицах оно составляет от 4 до 60 мс и существенно зависит от того, между какими состояниями переключается субпиксел. Для отображения этой зависимости давайте зададимся каким-нибудь одним начальным уровнем яркости (например, нулем) и посмотрим «двухмерный» график времени переключения субпиксела в зависимости от того, какую «результирующую» яркость нам нужно получить от матрицы (рис. 2, 3).
   Серый график – время отклика, соответствующее типовой современной TFT-панели. Белый график – время отклика AUO M170EG01, одной из самых быстрых матриц на основе технологии TN+Film. Хорошо видно, что время отклика для первой панели постепенно растет в зависимости от величины перехода и составляет в среднем от 30 до 45 мс, а время отклика более быстрой, восьмимиллисекундной панели примерно постоянно (22—25 мс) во всем диапазоне переходов. И только для переходов «черный-белый» (от полностью непрозрачного к полностью прозрачному состоянию) оно резко падает – до 18 (в первом случае) и 8 (во втором) миллисекунд. Именно это время, согласно стандарту ISO, и указывается в качестве времени реакции матрицы. То есть, как нетрудно посчитать, реальное среднее время отклика матрицы примерно в 2,5—3 раза больше, чем то, которое указывается производителем!
   Человеческий глаз довольно инерционен (киношных 24 кадров в секунду достаточно, чтобы создать иллюзию плавного движения), однако инерционность эта чисто психологическая – на самом деле человек замечательно улавливает «мелкие детали», которые ему показывают с куда большей частотой. К примеру, подавляющее большинство людей отчетливо видят мерцание CRT-монитора с частотой обновления кадров 60 Гц – это происходит потому, что в каждый момент времени светится только небольшая часть экрана, а остальное пространство остается темным. И точно так же для LCD-панелей: глаз не улавливает промежуточного серого цвета при, скажем, изменении цвета всего экрана, однако при смене кадров хорошо видит не успевшее погаснуть старое изображение одновременно с новым. Например, при скроллировании черного текста на белом фоне на большинстве мониторов ясно видна серая «тень», слегка отстающая от текста (замыливание, ghosting). А в фильмах и динамичных трехмерных играх инерционность, хоть и не столь явно, может создавать неприятные для глаза артефакты. И чтобы избавиться от этих эффектов, необходимо, чтобы время отклика матрицы позволяло полностью сменять на экране хотя бы 50—60, а лучше – 70—75 изображений. То есть довести время реакции до 17—20, а то и 13—14 мс во всем диапазоне яркости.
Как «разогнать» матрицу
   Итак, задача формулируется следующим образом: сделать матрицу со средним, а не «ISO’шным» временем отклика порядка 10—20 мс. И оказывается, совершенствовать технологию TN+Film, добиваясь необходимых при классическом подходе 4—6 мс времени отклика по стандарту ISO вовсе не обязательно: усовершенствовав схему управления LCD-панелью, этого легко добиться для уже существующих, причем куда более медленных матриц! Достаточно сместить «рабочую точку» переключения всех пикселов в «быструю» область. Ведь если поворот жидких кристаллов происходит не мгновенно, то что нам мешает начать его быстро, а затем остановить «на полпути»?
   Снова обратимся к графикам. Для начала взглянем, как в действительности происходит переключение субпиксела от полностью непрозрачного к полупрозрачным вариантам для нашей «усредненной матрицы» (рис. 4). А теперь представим, что мы используем LCD-панель, изображение на которой обновляется 60 раз в секунду (время обновления кадра 16,7 мс) и попробуем ее слегка «разогнать», приблизив время реакции матрицы к периоду обновления изображения. Введем некий гипотетический промежуточный цвет, для которого переключение матрицы будет довольно быстрым. Однако еще до того, как матрица успеет к этому цвету переключиться, остановим процесс на нужном нам промежуточном значении, изменив соответствующим образом напряжение на субпикселе во время следующего обновления экрана (отмечено жирной вертикальной чертой). Если все будет проделано правильно, получится следующее (рис. 5).
   Не правда ли, впечатляет? Нанеся график времени отклика «усовершенствованной» матрицы на наш график (оранжевым цветом), мы увидим такую картину (рис. 6)[Маленький горбик в конце графика появился из-за того, что для достаточно большого изменения угла поворота кристаллов последние повернуться на этот угол за период обновления экрана все равно не могут].
   Вот тебе и «медленная» матрица! Оказывается, что «глупая» прямолинейная схема управления, напрямую пересчитывающая желаемый уровень яркости субпиксела в соответствующее напряжение, не позволяет панели показать все, на что она способна. И если слегка доработать схему (чтобы она учитывала не только желаемый, но и уже существующий уровень яркости), то на нынешних матрицах нетрудно будет получить 60 и даже 100 Гц кадровой развертки. А это означает полное решение проблемы недостаточного времени отклика LCD-матриц.
   Впрочем, я рассказал далеко не обо всех прелестях Overdrive. Дело в том, что модернизировать электронику собственно панели для использования этой технологии совершенно необязательно! Достаточно того, чтобы Overdrive поддерживала видеокарта! Ведь, в сущности, неважно, электроника ли панели «учтет» предыдущее значение цвета пиксела и выставит «быстрый» уровень сигнала (соответствующий некоторому псевдоцвету) на один период обновления экрана, или это за нее сделает графический процессор видеокарты, выдавая на LCD не «правильную» картинку, а скорректированную с учетом инерционности матрицы. Более того: LCD Overdrive средствами видеокарты – самая что ни на есть объективная реальность, поскольку в том или ином варианте поддерживается почти всеми производителями видеокарт. У ATI эта «фича» называется LRDC и входит в состав технологии LCD Enhancement Engine (LCD-EE); у nVidia – LCD overdrive и входит в технологию PureVideo, и для их активации достаточно лишь включить соответствующую технологию в настройках драйвера. О том, какие версии драйверов подходят для этой цели и где в них спрятаны соответствующие настройки, мы поговорим чуть ниже, а пока задумаемся над следующим вопросом.
Неужели все так хорошо?
   Конечно же, нет! С технологией Overdrive связаны по меньшей мере две серьезные проблемы, каждая из которых может свести практический эффект от ее использования к нулю.
   Во-первых, для работы Overdrive компьютеру требуется постоянно «держать в памяти» сразу два изображения: одно, которое панель в данный момент должна показывать, и второе, которое панель показывает в действительности. А ведь это – несколько мегабайт быстродействующей видеопамяти! Кроме того, требуется иметь очень точно составленные таблички (64x64 для 18-битных и 256x256 для 24-битных матриц) «псевдоцветов», которые нужно использовать при данном сочетании текущего и желаемого состояния субпиксела, и «результирующих цветов», показывающих, какой цвет будет при использовании этого псевдоцвета достигнут к моменту следующего обновления изображения матрицы, – вот и еще 128 Кбайт памяти и обслуживающей ее логики. Конечно, для современной видеокарты реализовать подобную систему не составляет большого труда (прошли те времена, когда все упиралось в медленную и дорогую видеопамять), однако не вполне понятно, откуда видеокарта возьмет эту 131 тысячу чисел, свойственную именно этой конкретной матрице. А LCD-монитор, напротив, прекрасно «осведомлен» о своих скоростных характеристиках (пользуясь специальным оборудованием, их нетрудно измерить), но для него динамическая коррекция картинки с учетом ее предыдущего состояния – принципиально новая и сложная в реализации задача, требующая специального DSP-процессора.
***
   Во-вторых, средств объективного контроля действительного состояния LCD-панели попросту не существует. А значит, использующая Overdrive система может лишь приближенно считать, что если 16,7 мс назад на такой-то субпиксел было подано такое-то напряжение, то сейчас он должен находиться в таком-то состоянии. В обычных системах небольшие ошибки и разброс параметров пикселов приводят к небольшим погрешностям в установившемся цвете панели; в Overdrive-системах подобные ошибки могут накапливаться и приводить не только к большим погрешностям в цветопередаче, но, в принципе, и к искажению получающихся картинок. С этим можно бороться, внося специальные ошибки в таблицы пересчета, однако полностью проблему это все равно не решает.
   Таким образом, «Overdrive первого поколения» не совсем тот Overdrive, который я описал в предыдущем разделе, а лишь грубое его подобие. Вместо того чтобы подавать напряжение, которое за заданное время (соответствующее времени обновления экрана) переведет субпиксел в желаемое состояние, на него подается напряжение, переводящее его в некое промежуточное состояние, из которого потом можно довольно быстро переключиться к любому желаемому уровню цвета. К примеру, чтобы перейти из состояния "0" в состояние «200», можно вначале переключиться к «255», а затем скорректировать получившийся результат, переключившись на запрошенные «200». Если матрица очень быстро переключается между 0 и 255 и быстро же переключается между, скажем, состояниями из диапазона 190…254, то независимо от того, насколько точный результат нам дает первое переключение (к 255), мы получим требуемые 200 единиц прозрачности субпиксела существенно быстрее, чем если бы сразу переключались от 0 к 200. Реализовать такой Overdrive гораздо проще, он абсолютно устойчив к погрешностям и вдобавок не требует точной подстройки к матрице (достаточно грубых оценок ее производительности). Но зато теперь вылезла другая проблема – вместо плавного изменения цвета от темного к светлому у нас возникает характерная небольшая быстро гаснущая «вспышка», которую глаз может уловить. Увы, до разработки более сложных и совершенных систем управления панелью технологии придется мириться с этим недостатком.
Чтение онлайн



[1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15

Навигация по сайту
Реклама


Читательские рекомендации

Информация