Жизнь Она такая разная!

Жизнь,
 она такая
 разная..
Очарования,
 разочарования цветы
 растут разнообразные....
Идём по дороге,
 подснежники
 срываем.
Встречаем
 любимое сердце,
 теряем.
Находим,
 не узнаем
 и убегаем.
В отчаянье
 слёз
 утопаем...
И всё таки
 Мы
 выплываем.
Ведь
 сказано было.
 Забыли,но знаем,
Мы чувствуем,
 рядом
 родная Душа...
 - 
Жизнь
 Она такая
 разная;
Твёрдая,
 жидкая,
 газообразная.
Ладаном пахучая. 
 Порою даже
 жутко вонючая.
Сладость
 и горечечь,
 Лёд и Пламень...
Правильная,
 Скоромная,
 часто тщеславная
Нелепая,
 напыщенная,
 бессмысленная. 
Безцельная.
 глупая, унылая
 трясина топкая!
Канат над пропастью!
 Проталина
 льда тонкого.
Лезвие ранящее,
 опасное,
 обоюдоострое...
До горизонта
 жАревом
 освещенный Путь.
Тянет
 судьба
 за нить.
Тлеет
 фитиль
 уныло.
Вспышка,
 Салют,
 Фейерверк,
Неотвратимый рок.
 Песчинка Неба
 Благословила.
-
Жизнь,
 Она такая
 разная:
Кому
 сколько,
 кому за что!
Кому
 джОкер,
 кому зеррО.
Кому
 сразу
 в дамки.
Кому
 насладиться
 игрой,
Кому
 Фартуну
 ласкать.
Кому
 в грёзах
 витать,
Кому
 только
 ловить измену.
Кому
 в облаках парить.
 кому падение.
Кому Вечность,
 тому
 и Мгновение.
 -
Жизнь,
 Она
 такая разная.
Но всегда
 хмельная чаша
 полная, пьянящая,
Зацепились,
 оседлали,
 не отпускаем.
Алмазы
 в небе,
 песок на зубах.
Побуждающая,
 Вкусная,
 Соблазнительная,
До
 дурман травы,
 удивительная...
Лечебная,
 Ядовитая,
 Прорицательная...
Творящая неожиданно
 Отчаянная,
 даже Случайная.
Комета, метеор.
 созидающая
 сокрушительная
       ! 
Погода
 Ласковая,
 Ненастная.
Сны цветные,
 счастливые,
 страшные.
Лабиринт неведенья
 страстный,
 опасный.
Разум
 в самообмане
 лукавства.
Искушение
 коварное.
 Поле минное!
Тишина
 красивая,
 манящая.
Тропа
 запутанная,
 болото вязкое.
Дорога
 пыльная,
 тряска ухабистая.
Шоссе
 скоростное,
 стремительное.
К звёздам Путь.
 Выбор.
 Ракета взрывоопасная.
Сияет Правдой
 радуга
 светлая.
Истина туманная,
 Плохо понятная.
 Загадочная!
Истина мерцающая,
 не до конца
 Ясная!
-
Жизнь
 Она такая
 разная:
Мысли творения
 вымощены,
 мрак над пропастью.
Скорость неимоверная
 Черные дыры,
 Квантовая гравитация.
Ураган мыслеформ
 Порядок и хаос ,
 Неимоверно быстрые.
Гармония, Энтропия.
 Стремительная
 необратимая.
Пустота
 Пространство.
 Тишина,
Океан бесконесный,
 спирали ураган.
 хаоса млечного.
Фебоначчи программа
 всегда и во всём
 безупречная.
И за это дана,
 в награду
 всем нам
В назидание
 боль и дар:
 Любовь Бесконечная.
http://www.stihi.ru/2010/11/03/7132


Рецензии
Чи́сла Фибона́ччи — элементы числовой последовательности
http://youtu.be/Yj9R6O1eRuE0
, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, 610, 987, 1597, 2584, 4181, 6765, 10946, 17711, … (последовательностьA000045 в OEIS),в которой первые два числа равны либо 1 и 1, либо 0 и 1, а каждое последующее число равно сумме двух предыдущих чисел. Названы в честь средневекового математика Леонардо Пизанского (известного как Фибоначчи).
Более формально, последовательность чисел Фибоначчи {Fn}{\displaystyle \left\{F_{n}\right\}} задаётсялинейным рекуррентным соотношением:
F0=F1=Fn=Fn+Fn,nnZ{\displaystyle F_{0}=0,\qquad F_{1}=1,\qquad F_{n}=F_{n-1}+F_{n-2},\quad n\geqslant 2,\quad n\in \mathbb {Z} .}Иногда числа Фибоначчи рассматривают и для отрицательных значений n{\displaystyle n}, как двусторонне бесконечную последовательность, удовлетворяющую тому же рекуррентному соотношению. При этом члены с отрицательными индексами легко получить с помощью эквивалентной формулы «назад»: Fn=Fn−Fn{\displaystyle F_{n}}…−5534−2113−85−32−11011235813213455…
Легко заметить, что F−=)nFn{\displaystyle F_{-n}=(-1)^{n+1}F_{n}}.
Технологи́ческая сингуля́рность — гипотетический момент, по прошествии которого, по мнению сторонников данной концепции,технический прогресс станет настолько быстрым и сложным, что окажется недоступным пониманию, предположительно следующий после создания искусственного интеллекта исамовоспроизводящихся машин, интеграции человека с вычислительными машинами, либо значительного скачкообразного увеличения возможностей человеческого мозга за счёт биотехнологий.
Вернор Виндж считает, что технологическая сингулярность может наступить уже около 2030 года, в то же времяРэймонд Курцвейл даёт 2045 год. На Саммите Сингулярности в 2012 году Стюарт Армстронг собрал оценки экспертов, медианное значение этой выборки составило 2040 год

Михаил Космос   08.07.2018 12:22     Заявить о нарушении
Существует мнение, что почти все утверждения, находящие числа Фибоначчи в природных и исторических явлениях, неверны — это распространённый миф, который часто оказывается неточной подгонкой под желаемый результат.
В природе Филлотаксис(листорасположение) у растений описывается последовательностью Фибоначчи. Семенаподсолнуха, сосновые шишки,лепестки цветков, ячейкиананаса также располагаются согласно последовательности Фибоначчи
Длины фаланг пальцев человека относятся примерно как числа Фибоначчи.Раковины моллюсков, в частности Наутилуса, строятся по спирали, соотносящейся с рядом чисел Фибоначчи

Михаил Космос   05.02.2018 12:42   Заявить о нарушении
Энтропи́я (от др.-греч. ἐν — «в» иτροπία — «поворот», «превращение») — широко используемый в естественных иточных науках термин. Впервые введён в рамкахтермодинамики как функция состояния термодинамической системы, определяющая меру необратимого рассеивания энергии. В статистической физике энтропия характеризуетвероятность осуществления какого-либо макроскопического состояния. Кроме физики, термин широко употребляется в математике: теории информации и математической статистике. Для энтропии (чаще в математике) встречается также название шенноновская информация или количество информации по Шеннону.
Энтропия может интерпретироваться как меранеопределённости(неупорядоченности) некоторой системы, например, какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации. Таким образом, другой интерпретацией энтропии является информационная ёмкость системы. С данной интерпретацией связан тот факт, что создатель понятия энтропии в теории информации(Клод Шеннон.
Понятие информационной энтропии применяется как втеории информации иматематической статистике, так и в статистической физике(энтропия Гиббса и её упрощённый вариант —энтропия Больцман.Математический смыслинформационной энтропии — это логарифм числа доступных состояний системы (основание логарифма может быть различным, оно определяет единицу измерения энтропии Такая функция от числа состояний обеспечиваетсвойство аддитивностиэнтропии для независимых систем. Причём, если состояния различаются по степени доступности (то есть не равновероятны), под числом состояний системы нужно понимать их эффективное количество, которое определяется следующим образом. Пусть состояния системы равновероятны и имеют вероятность p{\displaystyle p}, тогда число состояний N/p{\displaystyle N=1/p}, а log/p{\displaystyle \log N=\log(1/p).}
В случае разных вероятностей состояний pi{\displaystyle p_{i}} рассмотримсредневзвешенную величину logN∑iNpilog/pi){\displaystyle \log {\overline {N}}=\sum _{i=1}^{N}p_{i}\log(1/p_{i}),} где N{\displaystyle {\overline {N}}} — эффективное количество состояний. Из данной интерпретации непосредственно вытекает выражение дляинформационной энтропии Шеннона
HN∑iNpilogpi.{\displaystyle H=\log {\overline {N}}=-\sum _{i=1}^{N}p_{i}\log p_{i}.}Подобная интерпретация справедлива и для энтропии Реньи, которая является одним из обобщений понятияинформационная энтропия, но в этом случае иначе определяется эффективное количество состояний системы (можно показать, что энтропии Реньи соответствует эффективное количество состояний, определяемое каксреднее степенное взвешенноес параметром q{\displaystyle q\leq 1} от величин 1/pi{\displaystyle 1/p_{i}}.
Следует заметить, что интерпретация формулы Шеннона на основе взвешенного среднего не является её обоснованием. Строгий вывод этой формулы может быть получен из комбинаторных соображений с помощью асимптотическойформулы Стирлинга и заключается в том, что комбинаторность распределения (т. е. число способов, которыми оно может быть реализовано) после взятия логарифма и нормировки асимптотически совпадает с выражением для энтропии в виде, предложенном Шенноном.
В широком смысле, в каком слово часто употребляется в быту, энтропия означает меру неупорядоченности или хаотичности системы: чем меньше элементы системы подчинены какому-либо порядку, тем выше энтропия.
Величина, противоположнаяэнтропии, именуетсянегэнтропией или, реже,экстропией.

Михаил Космос   06.02.2018 17:08   Заявить о нарушении
Экспоненциальный рост. Экспоненциальный рост противопоставляется более медленным (на достаточно длинном промежутке времени)линейной или степеннойзависимостям. В случае дискретной области определения с равными интервалами его ещё называют геометрическим ростом или геометрическим распадом (значения функции образуютгеометрическую прогрессию). Экспоненциальная модель роста также известна как мальтузианская модель роста.
Свойства
Для любой экспоненциально растущей величины чем большее значение она принимает, тем быстрее растёт. Также это означает, что величина зависимой переменной и скорость её ростапрямо пропорциональны. Но при этом, в отличие отгиперболической, экспоненциальная кривая никогда не уходит в бесконечность за конечный промежуток времени.
Экспоненциальный рост в итоге оказывается более быстрым, чем любой степенной и тем более любой линейный рост.

Михаил Космос   06.02.2018 17:23   Заявить о нарушении