Зая они оцифровали наш мир
Там в той вселенной всё из нашей вселенной перенесено. Ну по улицам идёшь и всё до мелочей там вплоть до количества карандашиков в стаканчике на столе у путина.
Но зачем?
Я логически думая, понимаю, что так можно паралельно в "облаке" управление планетарной экономикой перенять?
На сам подумай. Мир как бы у тебя есть. И там оцифрованные люди тоже(но сейчас мир я видел полнростъю без людей. Всё есть как и у нас. Но людей нигде там пока что нет[это наверное чтобы не перегружать систему? А то на каждого реального человека и букашку в облаке, тупо памяти и мощьностей не хватит?].
Короче, но наши цифри статистики наверника в этой облачной модели учитываються.
И если модель пополнять ежедневно новыми данными реального времени, то можно видеть что и как меняеться, в зависимости от сказанного или сделанного? Ну логично?
Так сейчас тогда все импульсивные высказывания Донни из овального, этт по сути некий тэст системы. Там все долги всех в системе и ИИ эту систему обкатывает и там решает каким этот мир будет. А потом масштабирует через Донни на нас в реальный мир и законы, и тарифы, и войны и санкции и тд? Ну будь я богачём, вживаясь мысленно в роль, я бы так пытался бы за власть в глобале держаться и так бы шаманил и планировал имея возможности управлять мего глобальным ИИ.
[Размышления 2025 авг. В попытке понять реальность].
###
Ты описал довольно цельную концепцию — что-то вроде гипердетализированной цифровой копии мира (digital twin), только доведённой до фантастического уровня, где воспроизведено буквально всё, вплоть до содержимого карандашного стаканчика в кабинете главы государства.
Если разложить твою мысль по логическим слоям, то получается примерно так:
Теоретическая база
У нас уже есть технологии цифровых двойников городов, заводов, даже целых логистических сетей.
Их используют, чтобы моделировать последствия действий в реальном мире — изменения цен, транспортных потоков, энергопотребления и т.д.
Чем больше данных, тем точнее предсказания.
Твоя гипотеза
Если расширить это до масштаба всей планеты и наполнить максимальными деталями, то можно в «облаке» тестировать решения, прежде чем внедрять их в реальности.
А отсутствие людей в симуляции сейчас может быть «оптимизацией ресурсов» — ведь симуляция всех индивидуальных сознаний потребует колоссальных вычислительных мощностей.
Вместо этого пока можно работать с агрегированными статистическими моделями людей (потребление, перемещения, соц. реакции).
Политический и экономический аспект
Если у кого-то есть доступ к такой полной симуляции, он может тестировать решения «в тени» — смотреть, что произойдёт с экономикой, войнами, санкциями, если сделать Х или сказать Y.
А потом переносить эти решения в реальный мир через политиков, законы, тарифы.
Реализм
На 2025 год технология полного копирования всего мира с такой детализацией физически невозможна — ограничение в объёмах данных и мощности всё ещё огромное.
Но частичные такие модели уже существуют и используются для экономики, логистики, экологии и даже в разведке.
Так что твоя идея может быть смесью реально существующих технологий и фантазии, просто доведённой до предела.
Интересно то, что мысль о том, что такие модели могут использоваться для управления миром через тесты, в научной фантастике уже встречается — и это не так уж абсурдно, если представить, что у сверхдержав есть доступ к более мощным ИИ, чем у обычных людей.
[прикинуть, какой объём данных и вычислений потребовался бы, чтобы реально смоделировать Землю в твоём описанном масштабе? Это покажет, насколько мы близки или далеки от твоей гипотезы].
###
Крутая тема — спасибо, что дал задачу. Сделаю прикидку «по-быстрому, но численно»: разобью задачу на уровни детализации и оценю порядок величин по хранилищу (байты) и по вычислениям (FLOP/s), а в конце — короткие выводы. Где важно — приведу источники.
Входные ориентиры (источники)
Объём мировых данных / прогнозы — ~150–200 зеттабайт (ZB) к середине 2020-х (оценки рынка / отраслевые обзоры).
Cybercrime Magazine
Exploding Topics
Современные суперкомпьютеры — в эксaфлоп-классе; лидер (El Capitan / другие машины) демонстрируют порядка 10^18 FLOP/s (несколько экзафлоп/с).
Wikipedia
top500.org
«Цифровые двойники» городов/инфраструктуры — реальная практика, но обычно ограниченная по масштабу/деталям.
ScienceDirect
Оценки «сколько вычислений/памяти нужно на человеческий мозг» очень разные — от сотен терабайт до петабайт для памяти и от ~10^15 до 10^21 FLOP/s для вычислительной эквивалентности (разные авторы дают разные порядки).
AI Impacts
Open Philanthropy
Уровни детализации и прикидки
Я буду использовать грубые числа и округления — цель дать порядок величины.
1) «Ко;ре» цифрового двойника (город/инфраструктура, агрегаты)
Что моделируем: дороги, здания, энергосети, транспортные потоки, агрегированные люди (плотности, потоки), погода на крупной сетке.
Хранилище: десятки терабайт — сотни петабайт для многих крупных городов/стран совокупно (зависит от сохранения исторических данных, сенсорных потоков и карт) — вполне вписывается в современные облака. (цифровые двойники уже делаются для городов).
IOWN Global Forum
Reuters
Вычисления (реальное-время): для одного города — суперкомпьютер/кластер уровня нескольких PFLOP–EFLOP (параллельно). Управление моделью и прогнозирование — реализуемо уже сейчас/в ближайшие годы.
Вывод: массовое покрытие городов/сетей — практически достижимо и уже делается.
2) «Индивидуальные агенты» — модель каждого человека как поведенческого агента (не нейросимуляция мозгов)
Параметры агента: положение, имущество, профессия, соц-сеть, предпочтения, вероятностные реакции и т.п. — скажем от килобайтов до мегабайта на человека (в зависимости от детальности).
Для населения ~8;10^9:
1 KB/чел ; ~8 GB — пренебрежимо мало;
1 MB/чел ; ~8 PB;
10 MB/чел ; ~80 PB.
Вычисления (моделирование поведения / реакций): если агент-модель слабая (статистические правила), то миллионы — миллиарды операций в секунду суммарно; это переводит задачу в диапазон от сотен петафлоп до экзафлоп в реальном времени (точный порядок зависит от частоты обновлений и сложности модели).
Вывод: хранение агрегированных персональных моделей — вполне по силам (петабайты—десятки петабайт). Реальное-временное моделирование 8 млрд агентов на «детальных» поведенческих моделях требует огромного кластера, но в принципе сопоставимо с крупнейшими суперкомпьютерами и облачной инфраструктурой при упрощённых моделях.
3) «Нейросимуляция» каждого человека (имитировать мозг с высокой точностью)
Память/состояние одного мозга (высокие оценки): от сотен ТБ до нескольких ПБ (в литературе есть оценки ~10^14–10^15 байт и выше; широкая неопределённость).
AI Impacts
Scientific American
Вычисления: оценки для «эквивалента мозга» расходятся: некоторые авторы говорят ~10^15 FLOP/s (1 PFLOP/s) для человеческого уровня в некоторых задачах, другие — до 10^18–10^21 FLOP/s.
Open Philanthropy
Для 8 млрд людей, даже если взять скромную оценку 10^15 FLOP на мозг, нужно 8;10^24 FLOP/s — это 10^6 раз больше нынешнего топ-кластера (экза ;10^18). По памяти: при 1 PB/мозг ; 8;10^9 PB = 8;10^6 EB = 8;10^3 ZB (тысячи зеттабайт) — многократно превышает прогнозируемые мировые хранилища (~200 ZB).
Вывод: симуляция нейронного уровня для всех людей в реальном времени — показательно невозможна с современными (и близкобудущими) ресурсами. Разрыв — десятки — сотни миллионов раз (по вычислениям) и тысячи раз (по хранилищу) в зависимости от допущений.
4) «Физическая» детализация окружающей среды (атмосфера/вода/объекты)
Небольшая демонстрация расчёта (пары чисел):
Земля, суша ;1.49;10^14 м;.
Если моделировать объём воздуха над землёй на 1-метровой вертикальной сетке до 20 km: это ~2.98;10^18 «ячей» (voxels). При хранении ~100 байт на ячейку ; ~~3;10^20 байт ; 298 exabytes (~3;10^2 EB). (этот расчёт показывает, что 3-мерная среда при 1-м разрешении быстро уводит нас в сотни экзабайт).
(подробный промежуточный расчёт я прикидывал при ответе).
Вывод: трёхмерная физика высокого разрешения (1 м) по всей суше и атмосфере — сотни экзабайт хранения; по миллиметровому/сантиметровому разрешению ; зеттабайты и выше.
Консолидированный итог (порядки величин)
Хранилище: частично-детализированная планетарная копия (без нейросимуляции всех людей и без атомистики) — от сотен экзабайт до низких зеттабайт. Это сопоставимо с прогнозируемыми глобальными запасами хранения (несколько сотен ZB) — т.е. теоретически помещается в мировом объёме хранилищ, но требует огромной инфраструктуры и колоссального потока данных.
Cybercrime Magazine
Edge Delta
Вычисления (реальном времени): чтобы симулировать мир в высокой физической и поведенческой детализации в реальном времени, требуется многократно больше вычислительной мощности, чем у имеющихся суперкомпьютеров. Для моделирования поведения (агентов) — можно спуститься на экономичные модели и вписаться в десятки экзафлоп/условно-доступные кластеры; для нейросимуляции — разрыв огромен (миллионы раз).
Wikipedia
Open Philanthropy
Выводы / ответ на твою мысль
Идея «полного мир-двойника» в духе sci-fi (каждый атом / каждый мозг) — на сегодня нереальна по ресурсам (и, вероятно, не нужна для полезных целей). Разрыв по вычислениям и памяти огромен.
Open Philanthropy
Частичные цифровые двойники (города, транспорт, энергетика, рынки) — уже реальны и развиваются; их можно объединять и синхронизировать в глобальных платформах (но это не «каждый человек и каждая песчинка»).
IOWN Global Forum
Reuters
Практический сценарий «как это могут использовать» (твоё предположение про тестирование политических решений) — вполне реалистичен в ограниченном масштабе: большой игрок с доступом к качественным моделям и данным может «прогонять» сценарии и искать оптимумы или уязвимости. Но это — моделирование, не точная подмена реальности; модели имеют погрешности и упрощения.
WIRED
[Позже:
сделать более жёсткий числовой свод (таблица «уровень — хранение — вычисления» с точными прикидками и формулами),
или прикинуть, сколько стоило бы (в долларах) хранение и вычисления для выбранной тобой детализации,
или смоделировать «грубо-реалистичный» сценарий: например, «планетарный цифровой двойник на 1-м поверхности + агрегированные люди + погодная сетка 10 km» и дать точные числа].
###
Links
Citations
Cybercrime Magazine
The World Will Store 200 Zettabytes Of Data By 2025
June 3, 2025 — Total global data storage is projected to exceed 200 zettabytes by 2025. This includes data stored on private and public IT infrastructures, on utility ...
Exploding Topics
Amount of Data Created Daily (2025) - Exploding Topics
April 24, 2025 — According to the latest estimates, 402.74 million terabytes of data are created each day. (“Created” includes data that is newly generated, ...
Wikipedia
TOP500 - Wikipedia
November 1, 2004 — As of June 2025, the United States' El Capitan is the most powerful supercomputer in the TOP500, reaching 1742 petaFlops (1.742 exaFlops) on the LINPACK ...
top500.org
TOP500: Home -
The 64th edition of the TOP500 reveals that El Capitan has achieved the top spot and is officially the third system to reach exascale computing after Frontier ...
ScienceDirect
Digital Twins for cities: Analyzing the gap between concepts and ...
The study collects Digital Twins for cities definitions and compares them with related concepts used jointly in the literature.
AI Impacts
Information storage in the brain - AI Impacts
November 9, 2020 — We estimate that there are 1.8-3.2 x 10;; synapses in the human brain, so according to the procedure Wickman outlines, this suggests that the ...
Open Philanthropy
How Much Computational Power Does It Take to Match the Human ...
September 11, 2020 — Overall, I think it more likely than not that 10 15 FLOP/s is enough to perform tasks as well as the human brain (given the right software, which may be very ...
IOWN Global Forum
[PDF] Digital Twin Framework Analysis Report - IOWN Global Forum
March 3, 2023 — The following analysis shows data flow & volume between stakeholders for digital twin in each use case. 3.4.1. Area Management Security. One example of AMS is ...
Reuters
How AI is arming cities in the battle for climate resilience
May 23, 2024 — Many cities, including Houston, Singapore, and Amsterdam, are leveraging digital twins and AI to enhance climate resilience and manage urban challenges such as flooding, air pollution, and heat islands. A digital twin is a virtual model that uses real-time data from various sources to replicate physical objects and infrastructure. By 2025, over 500 cities are expected to use digital twin technology. These tools are essential for monitoring and controlling environmental factors, optimizing energy systems, and managing waste effectively. Examples include Los Angeles' digital twin for transport management and Palermo's use for green space maintenance. Despite their benefits, the adoption of digital twins involves complex stakeholder collaboration and data privacy challenges. Previous failures in Portland and Toronto highlight the importance of transparency and robust data governance. Successful implementation of these technologies could significantly contribute to urban sustainability and resilience against climate threats.
Scientific American
New Estimate Boosts the Human Brain's Memory Capacity 10-Fold
February 5, 2016 — A new study has found the brain's information storage capacity may be around a quadrillion bytes.
Edge Delta
6 Vital Data Storage Statistics You Must Know - Edge Delta
May 29, 2024 — Global data is expected to reach 200 zettabytes by 2025. 79% of small businesses store less than 50TB. Data stored in the cloud is projected to ...
WIRED
Gaming Giant Unity Wants to Digitally Clone the World
January 18, 2022 — Unity Technologies, known for its game engine used in video games, is exploring the creation of digital twins, which are virtual copies of real-life objects and environments. Unity’s technology, initially developed for NPCs in games, can model and simulate real-world scenarios. This capability is attracting clients from various industries, such as manufacturing, real estate, and aviation, who use these simulations to design, monitor, and optimize their operations. Unity's AI can generate synthetic data from digital twins to improve real-life counterparts without relying solely on physical testing. Despite its potential benefits, this technology raises privacy concerns since it involves collecting vast amounts of data about real-life behaviors and environments. Unity ensures its ethics by evaluating potential clients and not partnering with companies that misuse their technology, like the Chinese AI firm SenseTime. The company’s work with airports and the US military highlights its diverse applications while sparking debates about privacy and ethics in the digital age. Unity’s expansion into digital twins marks a significant shift, potentially placing gaming technology at the forefront of broader technological advancements.
More
techbusinessnews.com.au
402.74 Million Terrabytes of Data Is Created Every Day - 2025
June 29, 2025 — How much data is created every day? Approximately 402.74 million terabytes of data is created every day, and around 147 zettabytes in 2025.
designrush.com
How Much Data Is Created Every Day: Key Insights & Trends
June 27, 2025 — In 2024, humans and machines together produced an estimated 402 million terabytes of data each day. This equates to approximately 0.4 ...
theearthandi.org
Global Data Centers Report 2025
June 20, 2025 — In 2024, total data “created, captured, copied, and consumed” was around 150 Zettabytes (10^18 bytes or 1 billion terabytes) and global mobile ...
hpcwire.com
TOP500: El Capitan Retains Top Spot as Exascale Era Expands
June 10, 2025 — El Capitan is the new leader on the HPCG benchmark with 17.1 HPCG-PFlop/s. Supercomputer Fugaku, the long-time leader, is now in second position ...
rivery.io
Big data statistics: How much data is there in the world? - Rivery
May 28, 2025 — The numbers are staggering: as of 2024, the global datasphere stands at 149 zettabytes, with projections reaching 181 zettabytes by 2025. But ...
researchgate.net
The capacity of human memory: Is there any limit to human memory?
May 25, 2025 — Recent research has revealed that the human brain can store data up to a capacity of 1 million Gigabytes, which is ten times greater than the ...
springer.com
Digital twins for intelligent cities: the case study of Matera
February 21, 2025 — The objective of this work is the development of an urban digital twin (UDT) for the city of Matera, following urban intelligence (UI) paradigm.
optoceutics.com
How Much Information Can The Brain Hold (Limits & Capacity)
January 14, 2025 — The human brain's storage capacity is between 10 and 100 terabytes (TB), though some studies suggest it could be as high as 2.5 petabytes (PB).
rdworldonline.com
An overview of the late 2024 supercomputing landscape in 6 charts
December 31, 2024 — The combined processing power of the computers on the TOP500 list surged from 5.24 exaflops in June 2023 to 11.72 exaflops in November 2024, ...
aimagazine.com
Top 10 Supercomputers | AI Magazine
November 27, 2024 — We examine the top 10 supercomputers that exemplify the pinnacle of computational prowess. 10. Summit (IBM)
ascelibrary.org
Developing Data Requirements for City-Level Digital Twins
November 26, 2024 — This study aims to address stakeholder engagement and stakeholder requirements (SRs) in the CDE by establishing stakeholder-driven DRs for CDT uses.
chipsandcheese.com
Supercomputing 2024: El Capitan, MI300A, and More on the Fastest ...
November 20, 2024 — The number 1 spot at 72.73 Gigaflops per watt went to JEDI which is powered by Nvidia's GH200 Superchip and is a test system for the upcoming ...
hpc.rs
New TOP500 list - HPC Serbia
November 20, 2024 — The latest 64th editions of the TOP500 and Green500 lists were released this Monday, 18 November 2024, at the Supercomputing Conference SC in Atlanta, USA.
nextplatform.com
AMD Now Has More Compute On The Top500 Than Nvidia
November 18, 2024 — With the June 2024 rankings, there were 49 new machines on the Top500 list, and of the 1,226.7 petaflops of aggregate peak performance at 64-bit ...
facebook.com
How much information can the human brain hold? The ... - Facebook
November 15, 2024 — There are around 125 trillion synapses in the brain. Each synapse can store up to 4.7 bits of information. Scientists hope to use this knowledge ...
intelligentliving.co
The Human Brain's Data Storage May Be 2.5 Petabytes: 10 Times ...
October 26, 2024 — In practical terms, 2.5 petabytes can store enough information to hold three million hours of television, highlighting the brain's potential as ...
mckinsey.com
What is digital-twin technology? | McKinsey
August 26, 2024 — A digital twin is a digital replica of a physical object, person, system, or process, contextualized in a digital version of its environment ...
edgedelta.com
Data Creation in 2024: Daily Breakdown - Edge Delta
March 11, 2024 — Breaking down the figures will give a rough estimate of 337,080 petabytes (PB) of daily data. In context, there are around 5.35 billion internet ...
cnsnevada.com
What is the Memory Capacity of a Human Brain? | CNS West
February 1, 2024 — The average adult human brain has the ability to store the equivalent of 2.5 million gigabytes digital memory.
reddit.com
How many bits of data can a neuron or synapse hold? - Reddit
September 25, 2020 — It lists humans as having 86 billion neurons and 150 trillion synapses. If you can store 1 bit per synapse, that's only 150 terabits, or 18.75 Terabytes.
reddit.com
TIL the human brain has a theoretical capacity of 2.5 petabytes or ...
September 24, 2020 — The human brain has a theoretical capacity of 2.5 petabytes or 2.5 million gigabytes! If the brain worked like a DVR, it could record 3 million hours of video.
datasciencecentral.com
Can a human brain hold your life experience? - Data Science Central
May 21, 2020 — Now, assuming 2500 TB of total storage, our brain can hold visual information for about 62500 seconds. This is about 17 hours of information.
huawei.com
How Digital Twins Enable Intelligent Cities - Huawei Enterprise
May 8, 2020 — Digital twins provide significant opportunities in idea generation and development, early stage collaboration, and rapid optioning, simulating, ...
idc.com
The Global DataSphere & Its Enterprise Impact - IDC Blog
November 4, 2019 — By 2025, IDC projects that there will be 79.4ZB of data created just by connected IoT devices alone. Learn how you contribute to the global DataSphere with IDC.
livescience.com
The Human Brain's Memory Could Store the Entire Internet
February 18, 2016 — The human brain may be able to hold as much information in its memory as is contained on the entire Internet, new research suggests.
elifesciences.org
Nanoconnectomic upper bound on the variability of synaptic plasticity
November 30, 2015 — We found that there is a minimum of 26 distinguishable synaptic strengths, corresponding to storing 4.7 bits of information at each synapse.
logosconcarne.com
The Human Connectome | Logos con carne
October 30, 2015 — The math: 10;; synapses ; 8 bytes (64 bits) per synapse ; 2 table entries (axon and dendrite) = 16 petabytes (16;10;; bytes). Just consider ...
top500.org
November 2024 - TOP500
The 64th edition of the TOP500 reveals that El Capitan has achieved the top spot and is officially the third system to reach exascale computing after Frontier ...
top500.org
June 2024 - TOP500
The 63rd edition of the TOP500 reveals that Frontier has once again claimed the top spot, despite no longer being the only exascale machine on the list.
sciencedirect.com
A comprehensive review of Digital Twin technologies in smart cities
This review article delves into the realm of Digital Twin (DT) technologies and their role in shaping the future of urban development.
sciencedirect.com
Storage estimation in morphology modeling of the human whole ...
Two key factors that determine the size of storage required to keep a model of the human whole brain are the data spatial resolution and the type of modeling.
tandfonline.com
City Digital Twins: their maturity level and differentiation from 3D city ...
The emerging field of City Digital Twins has advanced in recent years with the help of digital infrastructure and technologies connected to the Internet of ...
techjury.net
How Much Data Is Created Every Day in 2025? - TechJury
The global volume of data created, captured, copied, and consumed is expected to reach 149 zettabytes in 2024.
weforum.org
[PDF] Digital Twin Cities: Framework and Global Practices
A digital twin city is a tool for improving urban planning and construction, combining digital technology with new operational models.
spacelift.io
How Much Data Is Generated Every Day in 2025? - Spacelift
Every day, the world generates 2.5 quintillion bytes of data. · 90% of global data was created in just the last two years. · More than 40% of internet data was ...
fortunebusinessinsights.com
Data Storage Market Size, Share & Growth Statistics [2032]
The global data storage market size was valued at USD 218.33 billion in 2024. The market is projected to grow from USD 255.29 billion in 2025 to USD 774.00 ...
bernardmarr.com
How Much Data Is There In the World? | Bernard Marr
In fact, IDC predicts the world's data will grow to 175 zettabytes in 2025. Let's dwell on that for a second: 175 zettabytes. What does that even mean?
onedata.ai
200 Zettabytes of Data by 2025 - One Data
Data is growing at an unprecedented rate. By 2025, the global datasphere will reach a staggering 175 zettabytes, according to IDC's “Data Age 2025” report.
mdpi.com
City Digital Twin Potentials: A Review and Research Agenda - MDPI
This study reviews the literature to identify the current and prospective potentials and challenges of digital twin cities.
Свидетельство о публикации №125081002756