Нормативно-правове регулювання у галузі криптографічного захисту інформації в Україні та світі

Поява цифрових комп'ютерів та електроніки після Другої світової війни зробило можливим появу складніших шифрів. Більше того, комп'ютери дозволяли шифрувати будь-які дані, які можна представити в комп'ютері у двійковому виді, на відміну від класичних шифрів, які розроблялись для шифрування письмових текстів. Це зробило непридатними для застосування лінгвістичних підходів в криптоаналізі. Багато комп'ютерних шифрів можна характеризувати за їхньою роботою з послідовностями бінарних бітів (інколи в блоках або групах), на відміну від класичних та механічних схем, які, зазвичай, працюють безпосередньо з літерами. Однак, комп'ютери також знайшли застосування у криптоаналізі, що, в певній мірі, компенсувало підвищення складності шифрів. Тим не менше, сучасні шифри залишались попереду криптоаналізу, як правило, використання якісних шифрів дуже ефективне (тобто, швидке і вимагає небагато ресурсів), в той час як злам цих шифрів потребує набагато більших зусиль ніж раніше, що робить криптоаналіз настільки неефективним та непрактичним, що злам стає практично неможливим.

Широкі академічні дослідження криптографії з'явились порівняно нещодавно - починаючи з середини 1970-тих, разом із появою відкритої специфікації стандарту DES (Data Encryption) Національного Бюро Стандартів США, публікацій Діффі Хелмана та оприлюдненням алгоритму RSA. Відтоді, криптографія перетворилась на загальнопоширений інструмент для передачі даних, в комп'ютерних мережах, та захисті інформації взагалі. Сучасний рівень безпеки багатьох криптографічних методів базується на складності деяких обчислювальних проблем, таких як розклад цілих чисел, або проблеми з дискретними логарифмами. В багатьох випадках, існують докази безпечності криптографічних методів лише за умови неможливості ефективного розв'язання певної обчислювальної проблеми. За одним суттєвим винятком - схема одноразових блокнотів[2].

Разом із пам'яттю про історію криптографії, розробники криптографічних алгоритмів та систем також мають брати до уваги майбутній поступ технологій в своїх розробках. Наприклад, постійне підвищення обчислювальної потужності комп'ютерів розширило поле для атак грубої сили. Тому, відповідно і оновлюються стандарти в сенсі вибору довжини ключа. Можливі наслідки розвитку квантових комп'ютерів вже враховуються деякими розробниками криптографічних систем[3].

Взагалі кажучи, до початку 20-го століття, криптографія, в основному, була пов'язана з лінгвістичними схемами. Після того, як основний акцент було змінено, зараз криптографія інтенсивно використовує математичний апарат, включно з теорією інформації, теорією

обчислювальної складності, статистики, комбінаторики, абстрактної алгебри та теорії чисел. Існують дослідження з приводу взаємозв'язків між криптографічними проблемами та квантовою фізикою.

Криптоаналіз еволюціонував разом з розвитком криптографії: нові, більш досконалі шифри приходили на зміну вже зламаним системам кодування тільки для того, щоб криптоаналітики винайшли більш витончені методи злому систем шифрування. Поняття криптографії і криптоаналізу нерозривно пов'язані один з одним: для того, щоб створити стійку до злому систему, необхідно врахувати всі можливі способи атак на неї.

Хоча поняття криптоаналіз було введено порівняно недавно, деякі методи злому були винайдені десятки століть тому. Першою відомою писемною згадкою про криптоаналіз є "Манускрипт про дешифрування криптографічних повідомлень", написаний арабським ученим Ал-Кінді ще в 9 столітті. У цій науковій праці міститься опис методу частотного аналізу. Частотний аналіз - основний інструмент для злому більшості класичних шифрів перестановки або заміни. Даний метод ґрунтується на припущенні про існування нетривіального статистичного розподілу символів, а також їх послідовностей одночасно і у відкритому тексті, і в шифротексті. Причому даний розподіл буде зберігатися з точністю до заміни символів як в процесі шифрування, так і в процесі дешифрування. Варто відзначити, що за умови досить великої довжини шифрованого повідомлення моноалфавітні шифри легко піддаються частотного аналізу: якщо частота появи букви в мові та частота появи деякого присутнього в шифротексті символу приблизно рівні, то в цьому випадку з великою часткою ймовірності можна припустити, що даний символ і буде цієї самої буквою. Найпростішим прикладом частотного аналізу може служити банальний підрахунок кількості кожного з символів, що зустрічаються, потім слідують процедури розподілу отриманого числа символів на кількість всіх символів у тексті і множення результату на сто, щоб представити остаточну відповідь у відсотках. Далі отримані процентні значення порівнюються з таблицею імовірнісного розподілу букв для передбачуваної мови оригіналу. У період XV-XVI століть у Європі створювалися і розвивалися поліалфавітні шифри заміни. Найбільш відомим є шифр французького дипломата Блеза де Віженера, в основу якого лягло використання послідовності декількох шифрів Цезаря з різними значеннями зсуву. Протягом трьох століть Шифр Віженера вважався повністю криптографічно стійким, поки в 1863 році Фрідріх Касіскі не запропонував свою методику злому цього шифру. Основна ідея методу Касіскі полягає в наступному: якщо у відкритому тексті між двома однаковими наборами символів знаходиться такий блок тексту, що його довжина кратна довжині ключового слова, то ці однакові набори символів відкритого тексту при шифруванні перейдуть в однакові відрізки шифротексту. На практиці це означає те, що за наявності в шифротексті однакових відрізків довжиною у три і більше символи, велика ймовірність того, що ці відрізки відповідають однаковим відрізкам відкритого тексту. Як застосовується метод Касіскі: у шифротекст шукаються пари однакових відрізків довжини три або більше, потім обчислюється відстань між ними, тобто кількість символів, які поділяють стартові позиції парних відрізків. У результаті аналізу всіх пар однакових відрізків ми отримаємо сукупність відстаней d1, d2, d3, ... Очевидно, що довжина ключового слова буде дільником для кожного з відстаней і, отже, для їх найбільшого загального дільника. Наступний етап розвитку криптоаналізу пов'язаний з винаходом роторних шифрувальних машин таких як, наприклад, винайдена Артуром Шербіусом Енігма. Метою таких пристроїв було мінімізувати кількість повторюваних відрізків шифротексту, статистика появи яких використовувалася при зломі шифру Віженера. Польським криптоналітикам вдалося побудувати прототип дешифровальной машини для версії Енігми, використовуваної Нацистською Німеччиною. Машина отримала назву "Бомба" за те, що при роботі видавала звуки схожі на цокання годинника. Пізніше вона була дороблена і взята на озброєння англійським криптоаналітикам. У міру розвитку нових методів шифрування математика ставала все більш і більш значущою. Так, наприклад, при частотному аналізі криптоаналітик повинен володіти знаннями і в лінгвістиці, і в статистиці. У той час як теоретичні роботи по криптоаналізу Енігми виконувалися переважно математиками, наприклад, Алан Матісон Тьюрінгом. Проте завдяки все тієї ж математики криптографія досягла такого розвитку, що кількість необхідних для злому елементарних математичних операцій стала досягати астрономічних значень. Сучасна криптографія стала набагато більш стійкою до криптоаналізу, ніж колись використовувані, застарілі методики, для злому яких було достатньо ручки та аркуша паперу. Може здатися, що чистий теоретичний криптоаналіз не здатний більш ефективно зламувати сучасні шифри. Тим не менш історик Девід Кан у своїй замітці до 50-ої річниці Агентства національної безпеки пише: "У наші дні сотні фірм пропонують безліч різних криптосистем, які неможливо зламати жодним з відомих методів криптоаналізу. Дійсно, такі системи стійкі навіть до атаки по підібраному відкритому тексту, тобто порівняння відкритого тексту і відповідного йому шифротексту не дозволяє дізнатися ключ шифрування, який би дозволив дешифрувати інші повідомлення. Таким чином, в деякому сенсі криптоаналіз мертвий. Але це ще не кінець. Криптоаналіз може бути і мертвий, але, висловлюючись метафорично, з кішки можна зняти шкірку декількома способами. "Далі у своїх замітці описує збільшене значення перехоплення даних, підкладки жучків, атак по сторонніх каналах і квантових комп'ютерів як методик, що йдуть на зміну традиційним методам криптоаналізу.

У 2010 колишній технічний директор Управління національної безпеки Брайан Сноу зазначив, що комерційна криптографія вже майже досягла рівня розвитку технологій, що використовуються розвідувальними службами, і тепер вони разом "дуже повільно просуваються у вже повністю дослідженій області". Тим не менш, криптоаналіз поки ще рано списувати з рахунків. По-перше, невідомо, наскільки ефективні застосовувані спецслужбами методи криптоаналізу, а по-друге за роки становлення та вдосконалення сучасної комп'ютерної криптографії було проведено багато серйозних атак і на теоретичні, і на практичні криптографічні примітиви:

- В 1998 було виявлена уразливість до атак на основі шифротексту у блоковому шифрі MADRYGA, запропонованому ще в 1984, але не отримав широкого розповсюдження.

- Ціла серія атак з боку наукового співтовариства, багато з яких були цілком практичними, буквально знищила блоковий шифр FEAL, запропонований як заміна DES в якості стандартного алгоритму шифрування, але також не отримав широкого розповсюдження

- Також було встановлено, що за допомогою широко доступних обчислювальних засобів потокові шифри A5/1, A5/2, блочний шифр CMEA, і стандарт шифрування DECT, використовувані для захисту мобільного і бездротового телефонного зв'язку, можуть бути зламано за лічені години або хвилини, а згодом і в режимі реального часу.

- Атака методом грубої сили допомогла зламати деякі з прикладних систем захисту, наприклад, CSS-систему захисту цифрового медіаконтенту на DVD-носіях. Таким чином, хоча найбільш надійні з сучасні шифрів є значно стійкішими до криптоаналізу, ніж Енігма, тим не менш криптоаналіз як і раніше відіграє важливу роль в обширній області захисту інформації.

Починаючи з 1970-х років інтерес до криптографії зростає з боку окремих дослідників, бізнесу та приватних осіб. Цьому сприяли в тому числі і публікації у відкритій пресі - книга Девіда Кана "Зломщики кодів", готовність наукової (створення осередку Фейстеля, роботи Діффі і Хеллмана, шифрів DES і RSA) і технічної бази (обчислювальної техніки), а також наявність "замовлення" з боку бізнесу - вимог до надійної передачі інформації в рамках окремої країни і по всьому світу. Одночасно з цим з'явилося й опір з боку держави розвитку відкритої криптографії (цивільної криптографії), що видно на прикладі історії протидії з АНБ. Серед причин негативного ставлення уряду вказують на неприпустимість потрапляння надійних систем шифрування в руки терористів, організованої злочинності або ворожої розвідки[4].