середа, 14 грудня 2016 р.
НАЙМЕНШИЙ КОМП'ЮТЕР
Цей крихітний комп'ютер-кубик Space
Cube вже деякий час продається в Японії, але за межами країни
він поки що новинка. За заявою виробника, це найменший, повністю
функціональний комп'ютер. При розмірі 52 х 52 х 55 мм, в ньому умудрилися
вмістити 300 Мгц процесорVR5701, 64 Мб DDR SDRAM пам'яті, 16 Мб вбудованої
пам'яті і карта CompactFlash на 1 Гб, один usb-порт, кард-рідер, vga-вихід,
Ethernet. Працює цей комп'ютер на спеціальній версії Red Hat Linux. У
Японії він продається за вельми адекватною ціною в 325 доларів, але
європейським жителям рано радіти – за попередньою інформацією його вартість в
Європі (якщо він сюди попаде) складе 1500 фунтів стерлінгів, що вже,
погодьтеся, звучить далеко не так принадно.
SТОРFАКЕ: БУДЬТЕ МЕДІАГРАМОТНИМИ!
Щодобово на пересічного читача, глядача і користувача мережі виливається цілий інформаційний океан. Як не потонути в ньому? Кілька порад від медіафахівців.
пʼятниця, 21 жовтня 2016 р.
ІННОВАЦІЙНІ ТЕХНОЛОГІЇ НАВЧАННЯ НА УРОКАХ ІНФОРМАТИКИ
Для нікого не є таємницею, що інтерес до знань в учнів падає. З метою успішного розв’язання цієї проблеми всі ми намагаємося поєднувати в своїй роботі різні методи, прийоми та технології. І я не виняток в цьому. На уроках інформатики я застосовую різні технології. А саме:
Групову (колективну) технологію. Ця технологія навчання передбачає організацію навчального процесу, за якої навчання здійснюється в процесі спілкування між учнями (взаємонавчання) у групах. Група може складатися з двох і більше учнів, може бути однорідною або різнорідною, постійною і мобільною. Наприклад, вивчення такої теми, як «Комп’ютерна мережа Інтернет» проводжу, використовуючи роботу в групах. Перед початком вивчення теми учні розподіляються в групи, кожній з яких повідомляється її тема. Кожна група отримує завдання підготувати та розкрити решті учням свою тему. Методи, форми, засоби для цього учні обирають самостійно. Вони опрацьовують теоретичний матеріал, готують презентації, підбирають тестові завдання, які потім я використовую для перевірки рівня засвоєння даного матеріалу. Роль кожного члена в групі розподіляється учнями також самостійно. Така організація навчального процесу має ряд позитивних моментів: в ході такої підготовки в учнів формуються навички проведення наукового дослідження та його оформлення, навички пошуку, використання та опрацювання інформації з різних джерел і т.д.
Технологію індивідуалізації процесу навчання.
Це організація навчального процесу, при якій вибір педагогічних засобів та темпу навчання враховує індивідуальні особливості учнів, рівень розвитку їх здібностей та сформованого досвіду. Прикладом технології індивідуалізації процесу навчання є проектний метод. Проекти можуть бути: особистісні, парні, групові (за кількістю учасників) короткочасні, середньої тривалості, довготривалі (за часом проведення). Короткочасні проекти використовую в межах одного уроку, наприклад, при вивченні теми «Текстовий процесор», коли за обмежений час учні повинні створити статтю в газету з певної теми та оформити її засобами Microsoft Word. Проекти середньої тривалості пропоную як залікові роботи в кінці певної теми. Так, після вивчення теми Комп’ютерна анімація» учні повинні представити на оцінку анімаційний фільм з певної теми навчального предмету, або по закінченні теми «Презентації Power Point» учні демонструють свої презентації. Довготривалі проекти виконували учні з високим рівнем навчальних досягнень на протязі, як мінімум, одного семестру для захисту їх на державній підсумковій атестації з інформатики в 11 класі. Це були і електронні підручники з різних навчальних предметів, і бази даних вчителів школи, учнів школи, випускників минулих літ. Використання методу проектів сприяє забезпеченню умов для розвитку індивідуальних здібностей та нахилів дитини, учить творчо мислити та інтелектуально вдосконалюватись. Він орієнтує учнів на самостійну, парну чи групову діяльність та активізацію навчання, при цьому реалізується творчий підхід до вирішення певної проблеми. Учень навчається самостійно планувати, організовувати й контролювати свої знання та дії. Ігрові технології навчання. Ще однією ефективною формою навчання є ділова гра. Види ігор: Навчальні, тренувальні, узагальнюючі; Пізнавальні, виховні, розвиваючі; Репродуктивні, продуктивні, творчі. Доказом необхідності та актуальності впровадження елементів гри та змагання в шкільний процес навчання є те, що більшість дітей та дорослих не виносять рутинної роботи. Високий ефект дають ділові ігри, спрямовані на розв’язання профільних задач. Наприклад, під час вивчення тем «Текстовий процесор», «Електронні таблиці», «Бази даних» учні працюють як представники фірм, рекламних агентств, організацій тощо. Діти створюють та представляють прайс-лісти, рекламні проспекти, бейджики, візитки і т.д., подають фінансові звіти, таблиці й діаграми, що інтерпретують їхні фінансові успіхи. На різних етапах уроку я застосовую такі елементи гри:
1. «Розгадай кросворд».
2. «Мозаїка» (потрібно з окремих фрагментів скласти програму з використанням процедури для розв’язування певної задачі).
3. «Вияви фантазію» (наприклад, намалювати комп’ютер, використовуючи тільки певні геометричні фігури (трикутники, чотирикутники тощо)).
4. «Урок інформатики моїми очима» (думки учнів на тему «Якби я провів урок інформатики»). Засвоєння й закріплення матеріалу відбувається в кілька разів швидше, якщо використовується такий метод навчання, як ділова гра.
Інтерактивне навчання – це спеціальна форма організації пізнавальної активності за умови постійної, активної взаємодії всіх учнів. Які інтерактивні технології я використовую? Це:
1) «Мозковий штурм». Учні по черзі висловлюють всі свої думки з приводу поставленого питання.
2) «Ажурна пилка». Це метод, що поєднує і групову, і фронтальну роботу. Малі групи працюють над різними завданнями, після чого переформовуються так, щоб у кожній новоствореній групі були експерти з кожного аспекту проблеми. Робота в змінних групах (парах) дає непоганий результат при вивченні нового матеріалу. Наприклад, при вивченні теми «Електронні таблиці. Введення, редагування, форматування табличних даних» спочатку формується три групи. Перед кожною сформованою групою ставиться завдання – опрацювати новий матеріал. Наступний етап – робота в змінних групах для обміну одержаними знаннями. Пари тричі формуються з учасників різних груп. Таким чином кожен з учнів має змогу виступити як у ролі вчителя, так і в ролі учня. Це хороші умови для розвитку самореалізації особистості учня.
3) «Мікрофон». Учні швидко по черзі висловлюються з приводу проблеми, передаючи один одному уявний "мікрофон”. Один учень може почати відповідь, а інший – доповнює, завершує відповідь. 4)«Навчаючись учу». Кожен учень отримує картку з частиною інформації з даної теми, опрацьовує її, доповідає однокласникам і вислуховує їх розповідь.
5) «Незакінчене речення» («кодування відповіді»). Учням пропонується перелік запитань у вигляді незакінчених речень та перелік відповідей. Діти повинні встановити відповідність між першим та другим списками. Використання інтерактивних технологій можливість для фахового росту, для зміни себе, для навчання разом з учнями. Але для ефективного застосування інтерактивного навчання, зокрема, для того щоб охопити весь необхідний матеріла і глибоко його вивчити потрібно старанно планувати свою роботу, глибокого вивчити і продумати матеріал, сценарій уроку, ролі учасників, критерії оцінювання і т.д. А це досить важко і не завжди вдається повною мірою.
Мультимедійні технології пов’язані із створенням мультимедіа-продуктів: електронних книг, енциклопедій, баз даних. У цих продуктах об’єднуються текстова, графічна, аудіо- та відеоінформація, анімація. Сьогодні розроблені програми для підтримки навчання будь-якого предмету (математики, фізики, хімії, іноземних мов і т.д). При вивченні теми «Прикладне програмне забезпечення навчального призначення» ми приділяємо увагу таким програмам. Використовуємо їх і при проведенні інтегрованих уроків, зокрема уроків математики та інформатики. Дуже широко використовую контролюючі програми для проведення комп’ютерного тестування, яке підвищує мотиваційну складову набуття учнями нових знань. Практичний досвід використання систем тестування показав, що результати тестування стимулюють пізнавальну активність учнів. Перевагою тест-програм є абсолютна об’єктивність в оцінці знань. Тестування дозволяє перевірити весь обсяг знань з теми за короткий термін часу. Учні знаходяться у рівних умовах, високим є рівень надійності, об’єктивності. Комп’ютер значно розширив можливості подання інформації. Застосування графіки, кольору, звуку, інших засобів мультимедіа дозволяє відтворити не тільки запитання тесту, а його оформлення. Учні більш охоче відповідають комп’ютеру і якщо отримують невисоку оцінку, то мають велике бажання скоріше її виправити. Але постійне використання тестування для контролю знань не є доцільним. Це призводить до того, що учні звикають до цієї форми контролю й через це не розвиваються. Крім того, тести не завжди враховують індивідуальні та психологічні якості учня. Тому тестування не може розглядатись як абсолютний, універсальний метод контролю. Поряд з тестуванням слід використовувати традиційні засоби контролю (співбесіди, письмові контрольні роботи, колоквіуми, семінари і т.д.)
Мережеві технології призначені для спілкування, доступ до баз даних через мережу Інтернет. Формами мереженої комунікації є: Електронна пошта; Телеконференції. Все гострішою стає проблема вдосконалення форм організації процесу навчання, знаходження відповіді на запитання "Як навчати, як створили умови для розвитку та самореалізації особистості в процесі навчання”. Як, залишаючись в рамках класно-урочної системи, підвищити ефективність навчального процесу, досягти високого інтелектуального розвитку учнів, забезпечити оволодіння ними навичками саморозвитку особистості. Значною мірою цього можна досягти, використовуючи сучасні інноваційні технології.
середа, 28 вересня 2016 р.
Цікаві факти про комп’ютерні віруси та спам
Перший комп’ютерний вірус, який поширився за межі машини автора, отримав назву Elk Cloner. Написаний він був у 1982 році Річем Скрента і орієнтувався на комп’ютери Apple.
- Перше спамерське повідомлення було відправлено в 1978 році в мережі Arpanet 400 підключеним користувачам. Воно містило невеликий патч від Dіgіtal Equіpment Corporatіon для нових комп’ютерів Decsystem-20, який далеко не всім був потрібний.
Комп’ютерний хробак CodeRed, який вийшов у світ 19 липня 2001 року, за 14 годин заразив більше 300 тисяч комп’ютерів і обійшовся компаніям в 2,6 мільярда доларів.
- Перший комп’ютерний баг був знайдений Грейс Мюррей Хопер, яка працювала з комп’ютерами Mark ІІ. Під час збою жінка перевірила реле й виявила міль, яка залетіла туди і стала причиною неполадки. Це був перший випадок, коли слово “баг” використовувалося для позначення різних проблем у софті або залізі.
Першою людиною, арештованою за спам у системах миттєвих повідомлень (типу ІCQ), став 18-річний Ентоні Греко 21 лютого 2005 року.
- У 1991 році відомий вірусмейкер Dark Avenger зарелізував MtE (Mutatіon Engіne) — алгоритм, що дозволяє вірусам мутувати у більш ніж 4 мільярди різних форм, значно утрудняючи їхнє знаходження антивірусами.
Спам становить більше 70% всіх емейлів, що проходять у мережі. За рахунок затраченого часу на видалення працівниками спаму компанії втрачають більше 10 мільярдів доларів щорічно.
- У 2004 році компанії Mіcrosoft і SCO Group пообіцяли виплатити по 250 тисяч доларів кожному, хто допоможе владі заарештувати автора комп’ютерного хробака Mydoom. У січні цей черв’ячок вразив увесь світ швидкістю поширення, а основною його метою було здійснення DoS атак на комп’ютери вищезгаданих компаній. Незважаючи на те, що різні версії Mydoom виходили аж до лютого 2005 року, автора так і не знайшли.
У 1992 році все комп’ютерне співтовариство зі страхом очікувало, коли настане 6 березня. У цей день очікувалося, що вірус Mіchelangelo обрушить всю комп’ютерну мережу і наведе справжній технологічний хаос. Але побоювання не виправдалися, судний день пройшов практично безболісно.
- Хробак Морріса, що в 1988 році обрушив тисячі комп’ютерів ARPAnet, не був деструктивним. Такі наслідки були викликані помилкою в одному єдиному символі, зробленою автором, у результаті чого хробак став некерованим.
понеділок, 4 квітня 2016 р.
@ - ХТО ЦЕ?
Історія знаку @ бере початок, нібито, ще в середньовіччі, коли ченці – хранителі стародавніх знань і рукописів – займалися перекладами і переписували трактати – у тому числі і написані на латині. В латині вживається прийменник “ad”, що в перекладі на сучасний англійський означає “at” (“на”, “в”, “к”) – і вказує на приналежність, напрям і наближення. У шрифті, використовуваному ченцями, буква “d” мала невеликий “хвостик”, що робило її схожою на цифру “6” в дзеркальному відображенні. Так “ad” досить швидко перетворилося на @.
Назва «собака» набуло поширення у зв’язку з появою на ЕОМ гри, де символ @ бігав по екрану і за сценарієм гри означав собаку.
Інша версія походження назви: на алфавітно-цифрових моніторах персональних комп’ютерів серії ДВК (1980-ті роки) «хвостик» мальованої на екрані зображення цього символу був дуже коротким, що надавало йому схожості зі схематично намальованою собачкою.
Тільки в російській і вірменській мовах знак @ називають собачкою. В інших мовах найчастіше @ називають мавпочкою або равликом, зустрічаються і такі екзотичні варіанти як штрудель (на івриті), оселедець під маринадом (в чеському і словацькому), місячне вухо (в казахському).
понеділок, 28 березня 2016 р.
КОМП'ЮТЕРИ, ЯКІ ВМІЮТЬ НАВЧАТИСЯ

Інформатика: комп’ютери, які вміють навчатися
Три роки тому дослідники із секретної лабораторії «Google X lab» у Маунтен-В’ю, Каліфорнія, взяли майже 10 мільйонів кадрів з відео-роликів на «YouTube» і завантажили їх у «Google Brain» — мережу з 1 000 комп’ютерів, запрограмованих вчитися новому так, як це робить людське маля. Через три дні перегляду повторюваних малюнків, «Google Brain» вирішив, цілком самостійно, що серед них є кілька категорій, які він може визначити: людські обличчя, тіла людей і… коти [1].
«Google Brain» відкрив, що в Інтернеті повно відео із котами, невтомно жартували журналісти. Але, крім того, це віха у відродженні «глибокого навчання»: розробленій тридцять років тому технології, де великі обсяги даних і здатність їх обробляти допомагають комп’ютерам розбиратися у складних задачах, які люди вирішують майже інтуїтивно — від розпізнавання облич до розуміння мови.
Саме по собі глибоке навчання — це друге життя ще більш старої ідеї, нейронних мереж. Такі системи, створені за подобою тісно взаємопов’язаних нейронів у мозку, мають імітувати процес навчання у людей: змінювати силу імітованих нейронних зв’язків у відповідь на певний досвід. «Google Brain», маючи приблизно 1 мільйон моделей нейронів і 1 мільярд моделей зв’язків, у десять разів більший за будь-яку глибоку нейронну мережу з раніше утворених. Засновник проекту, Ендрю Нг (Andrew Ng), який зараз працює головою Лабораторії штучного інтелекту в Стенфордському університеті Каліфорнії вирішив зробити системи глибокого навчання ще удесятеро більші.
Подібні успіхи сприяють вражаючим змінам у галузі штучного інтелекту (ШІ) — часто безплідних спробах змусити комп’ютери думати так, як це роблять люди. У минулі роки такі компанії, як «Google», «Apple» та «IBM» завзято скуповували стартап-компанії та переманювали дослідників – експертів у питанні глибокого навчання. Для звичайних покупців результатом стало програмне забезпечення, здатне сортувати фотографії, розпізнавати вимовлені вголос команди і перекладами текст з іноземних мов. Для учених і промисловості комп’ютери, здатні до такого навчання, можуть шукати ймовірних кандидатів у ліки майбутнього, робити схеми справжніх нейронних мереж у мозку і передбачати функцію білків.
«ШІ іде шляхом спроб і помилок, але поступово розвивається. Це може стати новим стрибком уперед»,— каже Ян Лекун (Yann LeCun), директор Центру наукової обробки даних в Університеті Нью-Йорка і піонер у галузі глибокого навчання.
«У наступні кілька років ми станемо свідками справжнього вибуху. Безліч людей приєднається до повального захоплення глибоким навчанням»,— погоджується Джітендра Малік (Jitendra Malik), який вивчає комп’ютерне розпізнавання зображень в Університеті Каліфорнії, Берклі. Проте у довгостроковій перспективі глибоке навчання може і не стати переможцем; деякі дослідники розробляють інші цікаві технології. «Я агностик,— каже Малік.— З часом люди самі вирішать, що саме працює краще і у якій галузі».
За принципом мозку
У 1950х, коли комп’ютери були новинкою, перше покоління дослідників ШІ пророкували, що от-от з’явиться повноцінний штучний інтелект. Проте оптимізм потроху слабшав, коли вчені почали розуміти, наскільки складними є знання про довколишній світ — особливо, коли мовилося про проблеми сприйняття, наприклад, що саме робить людське обличчя обличчям, а не маскою або мордочкою мавпи. Сотні дослідників і аспірантів десятки років описували у комп’ютерних кодах усе різноманіття особливостей, яке потрібне комп’ютерам для визначення об’єктів. «Зрештою, стало очевидним, що записати усі такі особливості надто важко, довго і вимагає експертних знань,— каже Нг.— І тому вирішили подивитися, чи немає простішого способу».
У 1980х здавалося, що таким простішим шляхом буде глибоке навчання у нейронних мережах. Подібні системи мали б вчитися за власними правилами з нуля. Для цього вони використовували дуже подібну до мозку механіку, внаслідок якої утворювалися функції, так само подібні до функцій мозку. За задумкою, мали утворюватися моделі нейронів, які організовувалися б у певні шари. Якщо у подібну систему завантажити малюнок, то перший шар просто зазначить усі темні та світлі пікселі. Наступний шар має визначити, що певні пікселі утворюють обриси; ще інший здатен розрізнити горизонтальні і вертикальні лінії. На певному етапі якийсь шар може впізнати очі і навіть визначити, що ці два ока зазвичай присутні на обличчі людини (див. 'Facial recognition').

Перші програми глибокого навчання працювли не краще за простіші системи, каже Малік. Та й працювати із ним було вибагливою справою. «Керувати нейронними мережами — тонке мистецтво. Тут, певне, замішана якась чорна магія»,— каже він. Мережам потрібна неймовірна кількість прикладів, щоб на них вчитися — так само, як і немовляті, яке збирає інформацію про довколишній світ. У 1980-1990рр було не дуже багато цифрової інформації, а комп’ютерам доводилось витрачати багато часу на обробку навіть наявного. Небагато було і прикладних програм. Одна з них — технологія, розроблена Лекуном — зараз використовується банками для зчитування рукописних чеків.
Однак на початок 2000-х такі прихильники ідеї, як Лекун і його колишній керівник, вчений комп’ютерних наук Джофрі Гінтон (Geoffrey Hinton) із Університету Торонто, Канада, були переконані, що прогрес у потужностях комп’ютерів та кількості цифрових даних означає, що настав час нової спроби. «Ми хотіли показати світові, що ці глибокі нейронні мережі справді корисні і можуть стати у пригоді»,— каже Джордж Дал (George Dahl), сучасний студент Гінтона.
Для початку Гінтон, Дал та деякі інші вчені взялися за складну, але комерційно важливу задачу розпізнавання голосу. В 2009 році дослідники доповіли [2], що після тренування на класичному наборі даних (три години записаної та транскрибованої мови), їх нейронна мережа глибокого навчання побила рекорд точності у перетворенні вимовленого у друкований текст — рекорд, який зберігався непорушним понад десять років, поки вчені працювали зі стандартним підходом на основі правил. Це досягнення привернуло увагу головних гравців на ринку смартфонів, каже Дал, який під час стажування взяв цю технологію у компанію «Мікрософт». «За пару років усі перейшли на глибоке навчання». Наприклад, цифровий асистент «Siri» для iPhone, з яким можна працювати у голосовому режимі, також покладається на глибоке навчання.
Гігантський стрибок
Коли «Google» для своєї ОС «Android» узяв розпізнавання голосу за принципом глибинного навчання, то кількість помилок скоротилася на 25%. «Десь такого зниження ми очікували досягти за десять років»,— каже Гілтон, що дає приблизне уявлення про складність прогресу в даній області. «Це як десяток проривів одночасно».
Тим не менш, Нг переконав «Google» дозволити використовувати дані та комп’ютери компанії у тому, що стало зрештою «Google Brain». Здатність проекту визначати котиків — чарівна (хоча комерційно беззмістовна сама по собі) демонстрація можливостей некерованого навчання — найбільш важкої задачі у навчанні, оскільки ввідні дані надходять без будь-якої пояснювальної інформації, наприклад, імен, заголовків чи категорій. Проте невдовзі Нг занепокоївся, що за межами «Google» прилади для роботи із глибоким навчанням є лише у жменьки дослідників. «Після багатьох моїх лекцій,— каже він,— пригнічені студенти приходили до мене і казали: у мене немає тисячі комп’ютерів, чи зможу я хоч колись працювати у цьому ж напрямі?»
Тож, повернувшись до Стенфорду, Нг почав розробляти більші і дешевші мережі глибокого навчання, використовуючи графічні процесори (GPU) — надшвидкі чипи, розроблені для гри на ПК [3]. Інші зробили те ж саме. «Приблизно за 100 000 дол. США, витрачених на прилади, ми можемо створити мережу з 11 мільярдами зв’язків на 64 GPU» каже Нг.
Машина-переможець
Проте наділити комп’ютери здатністю бачити для вчених було замало: вони хотіли подивитися на результат стандартизованих тестів. Малік пам’ятає, як Гінтон запитав його: «Ви не вірите в успіх. Як вас переконати?» Малік відповів, що, можливо, його переконає перемога у міжнародному змаганні «ImageNet».
У даному змаганні команда навчає комп’ютерну програму приблизно на 1 мільйоні зображень, до кожної з яких проставлена категорія. Після підготовки, програми перевіряють – чи зможуть вони самостійно віднести до певної категорії зображення, які до того їм не показували. Для кожного із нових зображень дається п’ять спроб; якщо правильної відповіді серед цих п’яти немає, то тест вважається проваленим. Раніше переможці зазвичай припускалися 25% помилок. У 2012 році лабораторія Гінтона стала першим переможцем, який використовував принцип глибокого навчання. Кількість помилок у них становила лише 15% (див. 4).
«Глибоке навчання перевершило усіх»,— каже Лекун, який не був членом цієї команди. Для Гінтона ця перемога дала роботу в «Google» і компанія використала програму для покращення пошуку фотографій у «Google+» в травні 2013 року.
Малік був вражений до глибини душі. «У науці треба довіряти чітким доказам, і тут докази були напрочуд чіткими»,— каже він. З тих часів він адаптував технологію, щоб побити рекорд в іншому змаганні з розпізнавання зображень [5]. Багато інших учених теж пішли його шляхом: у 2013 усі учасники «ImageNet» використовували системи глибокого навчання.
У розпізнаванні зображень та прямої мови — повний тріумф. Разом з цим зростає цікавість до використання принципів глибокого навчання у розпізнаванні природних мов — тобто у здатності розуміти людське спілкування настільки добре, щоб, наприклад, переповідати його іншими словами або відповідати на питання — і перекладі з однієї мови на іншу. І знову ж таки, тут теж є уже втілені приклади на написаних у вигляді машинного коду правилах та статистичному аналізі відомого тексту. Найдовершенішим прикладом подібної технології можна вважати «Google Translate», який може видавати цілком зрозумілі варіанти (хоча інколи і смішні), проте навіть і близько не такі доречні, як людина-перекладач. «Глибоке навчання дозволить зробити дещо набагато краще за сучасну практику в цій області», каже експерт з краудсорсингу Луїс фон Ахн (Luis von Ahn), чия компанія «Duolingo» із Піттсбурга, штат Пенсільванія, залежить саме від перекладачів-людей, а не комп’ютерів. «Єдине, із чим погоджуються усі – це те, що саме час спробувати що-небудь інакше».
Глибока наука
У той же час глибоке навчання довело свою користь у ряді наукових задач. «Глибокі мережі справді хороші у пошуку схем в наборі даних»,— каже Гінтон. У 2012 році фармацевтична компанія «Merck» призначила винагороду тому, хто зможе перевершити найкращу її програму, яка допомагає оцінити користь кандидатів у ліки. Задача: перевірити базу даних з понад 30 000 малих молекул, кожна з яких має тисячі числових дескрипторів хімічних властивостей, і спробувати визначити, як саме кожен із них буде діяти у 15 різних цільових молекулах. Дал та його колеги отримали $22 000 завдяки системі глибокого навчання. «Ми покращили базову лінію «Merck» майже на 15%»,— каже він.
Дослідники з біології та обчислень, включно із Себастьяном Сеунгом (Sebastian Seung) із Масачусетського технологічного інституту в Кембриджі використовують глибоке навчання для того, щоб полегшити аналіз тривимірних зображень зрізів мозку. На цих зображеннях переплетені лінії відображають зв’язки між нейронами, які потрібно визначити так, щоб їх можна було нанести на карту і порахувати. Колись у минулому до цієї роботи долучали аспірантів, проте автоматизація процесу стала єдиним варіантом дати раду мільярдам зв’язків, які, скоріше за все, невдовзі буде визначено у рамках цих проектів. Глибоке навчання, здається, стане тут найкращим способом автоматизації. Сеунг наразі використовує програми глибокого навчання для визначення нейронів з великого скупчення від сітківки, а потім пересилає результати на перевірку волонтерам онлайн-гри «EyeWire».
Вільям Стаффорд Нобл (William Stafford Noble), учений комп’ютерних наук з Університету Вашингтона в Сієтлі використовував глибоке навчання для того, щоб його програма навчилася досліджувати нитки амінокислот і передбачати структуру білка, який мав із них утворитися, при цьому певні частини утворять, наприклад, шестикутник або петлю; або ж наскільки просто буде розчиннику проникнути у проміжки структури. Нобл досі тренував свою програму на малих об’ємах даних, а у найближчі місяці візьметься за Базу даних білків (Protein Data Bank): світове сховище, яке наразі має дані про приблизно 100 000 структур.
Для учених комп’ютерних наук глибоке навчання може виявитися дуже вигідним: Дал роздумує над новими можливостями для старт-апів, а Лекуна перед Новим Роком взяли на роботу як нового голову відділу ШІ у «Facebook». Ця технологія вельми перспективна з точки зору практичного успіху ШІ. «Схоже, що у глибокого навчання є цікава властивість: чим більше даних ви йому «згодовуєте», тим кращим воно стає,— зазначає Нг.— Це притаманне не лише алгоритмам глибокого навчання, проте воно явно найкраще — принаймні найлегше. Саме тому тут є багато перспектив для майбутнього».
Не усі дослідники поділяють його точку зору. Орен Етціоні (Oren Etzioni), голова Алленівського інституту штучного інтелекту у Сієтлі, який у вересні минулого року розпочав програму по розробці ШІ каже, що не збирається використовувати як модель звичайний мозок. «Це подібно до того, як ми винаходили способи літати»,— каже він; найбільш успішні моделі для аеропланів мають не дуже багато спільного із біологією птахів. Окрема мета Етціоні — винайти такий комп’ютер, який, спираючись на скановані зображення матеріалу шкільних підручників, зможе пройти стандартний тест з природничих наук для початкової школи (і поступово дійти до вступних екзаменів до університету). Щоб пройти тести, комп’ютеру доведеться навчитися читати і розуміти діаграми та текст. Як саме Алленівський інститут буде вирішувати це завдання — поки що невідомо, проте для Етціоні нейронні мережі та глибоке навчання не перші кандидати у списку варіантів.
Серед цікавих ідей також комп’ютер, здатний робити висновки на основі вкладених до нього даних, а не спробі вивести якісь дані з нуля. Тобто, його можна запрограмувати такими твердженнями, як «усі дівчата — люди». Потім, якщо йому трапиться текст про дівчину, то комп’ютер зможе визначити, що дівчина, про яку мовиться — це певна людина. Тисячі, якщо не мільйони, подібних фактів потрібні для того, щоб сформувалися доволі посереднє знання про світ. Приблизно той же принцип закладено у комп’ютері «Watson» компанії ІВМ, який, як відомо, виграв міжнародний тур у вікторині «Jeopardy!» у 2011 році. Незважаючи на це, «Watson Solutions» мали швидше експериментальний інтерес у глибинному навчанні для покращення схем розпізнавання, каже Роб Гай (Rob High), головний технолог компанії, розміщеної у місті Остін, штат Техас.
«Google» також має подвійні ставки. Хоча тут нещодавно і відбувся прогрес у присвоюванні зображенням міток на основі мереж глибокого навчання Гінтона, компанія має і ще один відділ із ширшим колом обов’язків. У грудні 2012 року, компанія найняла футуриста Рея Курцвайля (Ray Kurzweil), щоб розглянути, у які способи комп’ютери можуть навчатися із власного досвіду — різні технології, до яких входить і глибоке навчання. У травні минулого року «Google» придбав квантовий комп’ютер від канадської компанії «D-Wave» (див. Nature 498, 286–288; 2013). Цей комп’ютер дуже перспективний для задач, не пов’язаних зі ШІ, як-от математичні обчислення — хоча, теоретично, його можна використовувати і для глибокого навчання.
Незважаючи на успіхи, глибоке навчання ще у колисці. «Це частина майбутнього,— каже Дал.— Вражає, як багато ми змогли зробити з такої дрібниці». І, додає він, «ми тільки почали».
четвер, 17 березня 2016 р.
ІНТЕРНЕТ-ЗАЛЕЖНІСТЬ МОЖЕ ВИКЛИКАТИ ДЕПРЕСІЮ
Інтернет стрімко увірвався в наше життя і так само, як персональний комп’ютер, ноутбук чи мобілка, заполонив усі сфери діяльності людини. Він є великим джерелом різних видів інформації. Тепер важко уявити сучасне життя без нього, адже за допомогою різних інтернет-сервісів можна багато чого зробити не виходячи із дому: провести будь-яку фінансову операцію, щось купити в інтернет-магазині або продати на аукціоні, просто почитати цікаві новини, пограти в ігри, провести час в популярних соціальних мережах, і так далі.
Тобто, для одних Інтернет – це робота, а для інших розвага. Але незалежно від того для чого людина використовує його, надмірне використання Інтернету непомітно переходить в серйозну хворобу – інтернет-залежність, яка, як виявили вчені, може викликати депресію і тривожність у підлітків. Саме підлітки, студенти, а також люди похилого віку найчастіше стають заручниками Всесвітньої павутини (WWW).
Недавно у виданні Archives of Pediatrics & Adolescent Medicine були опубліковані результати дослідження, яке проводилося серед 1962 китайських підлітків. У 8,4% учасників, які багато часу проводять в он-лайні, фахівці виявили розвинену клінічну депресію, а 0,2% отримали тривожність.
З точки зору медицини, інтернет-залежність – це психічний розлад. Часто інтернет-залежність прирівнюють до алкогольної залежності.
Сьогодні, більше 10% користувачів у світі страждають інтернет-залежністю або чумою XXI сторіччя, як вважають деякі фахівці. Так, КНР вже офіційно визнала цю хворобу клінічним захворюванням.
середа, 9 березня 2016 р.
ХТО СТВОРИВ ІНТЕРНЕТ.
Прародичем Інтернету можна назвати організацію ARPA (Advanced Research Projects Agency) – Агентство передових дослідницьких проектів в області оборони при Міністерстві оборони США (DOD), це агентство потім було перейменоване в DARPA (Defense Advanced Research Projects Agency). Під егідою цього агентства була створена мережа ARPANET (Advanced Research Projects Agency NETwork).До кінця 1969 були з’єднані комп’ютери чотирьох університетів, і з’явилася перша комп’ютерна мережа.
У 1972 році, коли ARPANET вже з’єднував 23 комп’ютера, була написана перша програма для обміну електронною поштою через мережу. Ці мережі володіли тим же недоліком, що і ARPANET, вони могли з’єднувати тільки обмежена кількість однотипних комп’ютерів. Крім того, вони були не сумісні один з одним.
У середині 70-х років для ARPANET були розроблені нові стандарти передачі даних, які дозволяли об’єднувати між собою мережі довільної архітектури, тоді ж було придумано слово “Інтернет”. Саме ці стандарти, що згодом отримали назву протоколу TCP / IP, заклали основу для зростання глобальної комп’ютерної мережі шляхом об’єднання вже існуючих мереж. Їх важливим достоїнством було те, що мережа вважалася в принципі не стовідсотково надійною, і передбачалися засоби боротьби з помилками при передачі даних. У 1983 році мережа ARPANET перейшла на новий протокол і розділилася на дві незалежні мережі – військову і освітню. До цього часу мережа об’єднувала більше тисячі комп’ютерів, в тому числі в Європі і на Гавайських островах. Останні використовували супутникові канали зв’язку.
Розвиток Інтернету отримало новий імпульс, завдяки ініціативі Національного наукового фонду США (NSF) зі створення глобальної мережевої інфраструктури для системи вищої освіти (1985-88). NSF створив мережу швидкісних магістральних каналів зв’язку та виділяв кошти на підключення до неї американських університетів. Інтернет залишався переважно університетською мережею до початку 90-х років, однак NSF відразу взяв курс на те, щоб зробити його в подальшому незалежним від державного фінансування. Зокрема, У 1988 році Інтернет вже налічував 56 тисяч з’єднаних комп’ютерів.
Справжній розквіт Інтернету почався в 1992 році, коли була винайдена нова служба, яка отримала дивну назву “Всесвітня павутина” (World Wide Web, або WWW, або просто веб). WWW дозволяє будь-якому користувачеві Інтернету публікувати свої текстові та графічні матеріали у привабливій формі.
Підписатися на:
Дописи (Atom)