Movatterモバイル変換


[0]ホーム

URL:


KR20240151252A - Computer security based on artificial intelligence - Google Patents

Computer security based on artificial intelligence
Download PDF

Info

Publication number
KR20240151252A
KR20240151252AKR1020247032720AKR20247032720AKR20240151252AKR 20240151252 AKR20240151252 AKR 20240151252AKR 1020247032720 AKR1020247032720 AKR 1020247032720AKR 20247032720 AKR20247032720 AKR 20247032720AKR 20240151252 AKR20240151252 AKR 20240151252A
Authority
KR
South Korea
Prior art keywords
data
security
code
information
malware
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
KR1020247032720A
Other languages
Korean (ko)
Inventor
사이드 캄란 하산
Original Assignee
사이드 캄란 하산
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/145,800external-prioritypatent/US20160330219A1/en
Priority claimed from US15/264,744external-prioritypatent/US20170076391A1/en
Application filed by 사이드 캄란 하산filedCritical사이드 캄란 하산
Publication of KR20240151252ApublicationCriticalpatent/KR20240151252A/en
Pendinglegal-statusCriticalCurrent

Links

Classifications

Landscapes

Abstract

Translated fromKorean

본 발명은 인공 지능을 기반으로 한 컴퓨터 보안 시스템에 관한 것으로, 서브 시스템들은 클라우드 및 계층적 정보 보안(CTIS)를 통한 비판적 인프라 보호 및 보상(CIPR), 사이버 공간에서 비밀 동작을 통한 기계 비밀 정보(MACINT) 및 응징(Retribution), 논리적 추론된 제로-데이터 베이스 선험적 실시간 방어(LIZARD), 비판적 사고, 메모리 및 인식(CTMP; Critical Thinking, Memory, Perception), 어휘 객관성 마이닝(LOM; Lexical Objectivity Mining), 선형 원자 퀀텀 정보 전달(LAQIT; Linear Atomic Quantum Information Transfer) 및 통합 노드를 부착한 베이스 연결 조화를 갖는 범용 BCHAIN 모든 연결들(UBEC; Universal BCHAIN Everything Connections)을 포함한다.The present invention relates to a computer security system based on artificial intelligence, wherein the subsystems include critical infrastructure protection and retribution (CIPR) through cloud and hierarchical information security (CTIS), machine intelligence intelligence (MACINT) and retribution through covert operations in cyberspace, logically inferred zero-database a priori real-time defense (LIZARD), critical thinking, memory, and perception (CTMP), lexical objectivity mining (LOM), linear atomic quantum information transfer (LAQIT), and universal BCHAIN everything connections (UBEC) with base connection coordination attached with integrated nodes.

Description

Translated fromKorean
인공 지능을 기반으로 한 컴퓨터 보안{Computer security based on artificial intelligence}Computer security based on artificial intelligence

본 발명은 인공 지능을 기반으로 한 컴퓨터 보안 시스템에 관한 것이다.The present invention relates to a computer security system based on artificial intelligence.

컴퓨터 네트워크 보안과 관련된 문제는 종종 복잡한 문제의 경우 인력 전문가의 도움을 필요로 한다. 컴퓨터 및 네트워크 기능의 급속한 확장은 해커를 포함한 악의적인 엔티티에 의해 악용되었으며, 이는 결국 인간 전문가에 의존한 전통적인 솔루션을 압도했다. 인공 지능으로 구동되는 전략은 이러한 상황의 한계를 극복하는 솔루션이 되고 있다. 그러나 새로운 전략은 효과적으로 인간 사고 프로세스를 모방하고 컴퓨터 하드웨어로 구현되도록 채택된 고급 모델을 필요로 한다.Problems related to computer network security often require the assistance of human experts for complex problems. The rapid expansion of computer and network capabilities has been exploited by malicious entities, including hackers, which has eventually overwhelmed traditional solutions that rely on human experts. Strategies driven by artificial intelligence are becoming a solution to overcome the limitations of these situations. However, new strategies require advanced models that effectively mimic human thought processes and are implemented in computer hardware.

본 발명의 컴퓨터 보안 시스템은 서브 시스템들은 클라우드 및 계층적 정보 보안(CTIS)를 통한 비판적 인프라 보호 및 보상(CIPR), 사이버 공간에서 비밀 동작을 통한 기계 비밀 정보(MACINT) 및 응징(Retribution), 논리적 추론된 제로-데이터 베이스 선험적 실시간 방어(LIZARD), 비판적 사고, 메모리 및 인식(CTMP; Critical Thinking, Memory, Perception), 어휘 객관성 마이닝(LOM; Lexical Objectivity Mining), 선형 원자 퀀텀 정보 전달(LAQIT; Linear Atomic Quantum Information Transfer) 및 통합 노드를 부착한 베이스 연결 조화를 갖는 범용 BCHAIN 모든 연결들(UBEC; Universal BCHAIN Everything Connections)을 포함하는 것을 목적으로 한다.The computer security system of the present invention is intended to include subsystems including Critical Infrastructure Protection and Retribution (CIPR) through Cloud and Hierarchical Information Security (CTIS), Machine Intelligence (MACINT) and Retribution through Covert Actions in Cyberspace, Logical Inference Zero-Database A priori Real-Time Defense (LIZARD), Critical Thinking, Memory, Perception (CTMP), Lexical Objectivity Mining (LOM), Linear Atomic Quantum Information Transfer (LAQIT), and Universal BCHAIN Everything Connections (UBEC) with Base Connection Harmony attached with Integrated Nodes.

상기한 바와 같이 목적을 달성하기 위한 본 발명의 인공 지능을 기반으로 한 컴퓨터 보안 시스템에 있어서, 상기 시스템은 프로그램 된 명령어를 저장하는 메모리 및 상기 메모리에 연결되어 상기 프로그램 된 명령들 및 적어도 하나의 데이터 베이스를 실행하는 프로세서를 포함하며, 상기 시스템은 지정된 기능을 제공하는 컴퓨터 구현 시스템을 포함하는 시스템이다.In order to achieve the purpose as described above, in a computer security system based on artificial intelligence of the present invention, the system includes a memory storing programmed instructions and a processor connected to the memory and executing the programmed instructions and at least one database, and the system is a system including a computer implementation system providing a designated function.

상기 컴퓨터 구현 시스템은 클라우드 및 계층화된 정보 보안(CTIS; Cloud & Tiered Information Security)을 통한 비판적 인프라 보호 및 보상(CIPR; Critical Infrastructure Protection & Retribution)이고:The above computer implemented system is Critical Infrastructure Protection & Retribution (CIPR) through Cloud & Tiered Information Security (CTIS):

a) 해커 활동을 보고하는 에이전트들의 네트워크로 구성된 신뢰 플랫폼(Trusted Platform);a) Trusted Platform, a network of agents reporting hacker activity;

b) 관리형 암호화 보안(Managed Encrypted Security), 연결 및 규정 준수 솔루션 및 서비스(Connectivity & Compliance Solutions & Services)를 제공하는 관리형 네트워크 및 보안 서비스 제공자(MNSP; Managed Network & Security Service Provider);를 더 포함하고,b) further includes Managed Network & Security Service Providers (MNSPs) that provide Managed Encrypted Security, Connectivity & Compliance Solutions &Services;

가상 사설망 (VPN; Virtual Private Network)은 상기 MNSP와 상기 신뢰 플랫폼을 연결하고, 여기서 상기 VPN은 상기 신뢰 플랫폼으로 및 상기 신뢰 플랫폼으로부터 통신 채널을 제공하며, 상기 MNSP는 기업 네트워크 내의 모든 트래픽을 분석하는데 적합하고, 상기 트래픽은 상기 MNSP로 라우트되는 시스템이다.A Virtual Private Network (VPN) connects the MNSP and the trust platform, wherein the VPN provides a communication channel to and from the trust platform, and the MNSP is a system suitable for analyzing all traffic within the corporate network, and the traffic is routed to the MNSP.

상기 MNSP는,The above MNSP is,

a) 외부 코드로부터 목적과 기능을 도출하여 악의적인 의도가 있거나 정당한 사유가 없는 경우 외부 코드를 차단하고, 이전의 이력 데이터에 대한 참조 없이 자체의 위협을 분석하는, 논리적으로 추론된 제로-데이터 베이스 선험적 실시간 방어(Logically Inferred Zero-database A-priori Realtime Defense (LIZARD));a) Logically Inferred Zero-database A-priori Realtime Defense (LIZARD) that derives purpose and function from external code, blocks external code if there is malicious intent or no legitimate reason, and analyzes its own threats without reference to previous history data;

b) 보안 룰 세트들의 유효성을 테스트하기 위한 가상적인 보안 시나리오를 제공하는, 인공의 보안 위협(AST; artificial security threat);b) Artificial security threat (AST), which provides hypothetical security scenarios for testing the effectiveness of security rule sets;

c) 이전 형식들에서 새로운 혼합(Hybrid) 형식을 생성하는 프로세스를 수행하는, 창조성 모듈(Creativity Module);c) Creativity Module, which performs the process of generating new hybrid formats from previous formats;

d) 정보 협력을 식별하고 보안 관련 행동 패턴들을 추출하며, 다수의 음모성 보안 이벤트들의 정기적인 백그라운드 검사를 제공하고, 관련 없어 보이는 보안 이벤트들 사이의 패턴 및 상호 관계를 결정하기 위한 시도를 하는, 음모 탐지(Conspiracy Detection);d) Conspiracy Detection, which identifies information collaborations, extracts security-relevant behavioral patterns, provides regular background checks on a large number of conspiracy-like security events, and attempts to determine patterns and correlations between seemingly unrelated security events;

e) 이벤트들과 이벤트들의 보안 응답들 및 특성들을 저장하고 인덱스하며, 상기 응답은 차단/승인 결정들을 포함하는, 보안 행동(Security Behavior);e) Security Behavior, which stores and indexes events and their security responses and characteristics, including block/approve decisions;

f) 빅 데이터 및 멀웨어(malware) 서명 인식을 활용하고, 상기 AST를 상기 창조성 모듈과 함께 활용하여 향후 잠재적인 멀웨어(malware)의 변화를 모방하는, 반복적인 지능 성장/ 지능 발전(I2GE; iterative Intelligence Growth / Intelligence Evolution); 및f) iterative Intelligence Growth/Intelligence Evolution (I2GE), leveraging big data and malware signature recognition, and utilizing the AST together with the creativity module to mimic future potential malware evolution; and

g) 상기 차단/ 승인 결정들을 비판하고, 보충적인 보안 계층 역할을 하며, 상기 I2GE, 상기 LIZARD 및 상기 신뢰 플랫폼으로부터 상호 참조 지능을 활용하며, 문제에 관한 객관적인 결정을 내릴 수 있는 자체 능력을 평가하고, 내부의 낮은 신뢰로 결정을 내리는 것을 삼가 하는, 비판적 사고, 메모리 및 인식(CTMP; Critical Thinking, Memory, Perception);을 포함하는 시스템이다.g) a system including Critical Thinking, Memory, and Perception (CTMP); that critiques said block/approval decisions, acts as a supplemental security layer, utilizes cross-referenced intelligence from said I2GE, said LIZARD and said Trust Platform, evaluates its own ability to make objective decisions on issues, and refrain from making decisions with low internal confidence.

상기 기업 네트워크의 장치에서 동작하는데 적합한 LIZARD 라이트 클라이언트(LIZARD Lite Client)는 상기 MNSP내의 상기 LIZARD와 안전하게 통신하는 시스템이다.The LIZARD Lite Client, which is suitable for operation on devices of the above corporate network, is a system that securely communicates with the LIZARD within the above MNSP.

상기 기업 네트워크의 나머지 부분이 보안 책임에 노출되지 않도록 일반 컴퓨터 보다 더 높은 보안 책임을 가진 HTTP 서버를 포함하는 하위 네트워크로 구성되는 비무장 지대(DMZ; Demilitarized Zone)를 더 포함하는 시스템이다.A system that further includes a demilitarized zone (DMZ) consisting of a sub-network containing HTTP servers with higher security responsibilities than general computers, so that the rest of the corporate network is not exposed to security responsibilities.

상기 I2GE는 반복적인 진화(Iterative Evolution)를 포함하고, 상기 반복적인 진화에서 병렬적 발전 경로들이 성숙되고 선택되고, 반복적인 세대들은 동일한 AST에 적응하고, 최고의 성격적 특성을 가진 경로는 가장 큰 보안 위협에 저항하게 되는 시스템이다.The above I2GE is a system that includes iterative evolution, in which parallel development paths mature and are selected, the iterative generations adapt to the same AST, and the path with the best personality traits resists the greatest security threats.

상기 LIZARD는,The above LIZARD,

a) 컴퓨터 코드를 읽고 쓰기 위해 프레임 워크를 제공하는, 구문 모듈(Syntax Module);a) Syntax Module, which provides a framework for reading and writing computer code;

b) 상기 구문 모듈을 사용하여 코드로부터 목적을 추출하고, 목적을 복합적 목적 형식으로 출력하는, 목적 모듈(Purpose Module);b) A Purpose Module that extracts a purpose from the code using the above syntax module and outputs the purpose in a composite purpose format;

c) 상기 기업 네트워크 및 데이터 베이스가 가상 환경에서 복제되고, 민감한 데이터가 가짜(모조) 데이터로 대체되며, 타겟의 행동에 따라, 상기 환경은 더 많은 모조 요소 또는 시스템의 실제 요소를 포함하도록 실시간으로 동적으로 변경될 수 있는, 가상의 난독화(Virtual Obfuscation);c) Virtual Obfuscation, where the corporate network and database are replicated in a virtual environment, sensitive data is replaced with fake (fake) data, and the environment can be dynamically changed in real time to include more fake elements or real elements of the system, depending on the target's behavior;

d) 상기 가상의 난독화의 분석적 결론에 도달했을 때 보복(Retribution) 의 한 형태를 제공하는, 신호 모방기(Signal Mimicry);d) Signal Mimicry, which provides a form of retribution when the analytical conclusion of the above virtual obfuscation is reached;

e) 외부 코드의 모든 내부적 함수들이 의미가 있는지 여부를 확인(check)하는, 내부 일관성 검사(Internal Consistency Check);e) Internal Consistency Check, which checks whether all internal functions of the external code make sense;

f) 상기 구문 모듈 및 상기 목적 모듈을 이용하여 상기 외부 코드를 복합적인 목적 형식(Complex Purpose Format)으로 축소하기 위한, 외부 코드 재 작성(Foreign Code Rewrite);f) Foreign Code Rewrite to reduce the external code into a complex purpose format using the above syntax module and the above purpose module;

g) 데이터 및 전송 패킷들에 은밀하게 삽입된 코드를 검출하는, 비밀 코드 탐지(Covert Code Detection);g) Covert Code Detection, which detects codes covertly inserted into data and transmission packets;

h) 필요성과 목적의 매핑된 계층이며, 상기 외부 코드가 상기 시스템의 전반적인 목적에 부합하는지 결정하기 위해 참조되는, 니드 맵 매칭(Need Map Matching);을 포함하고,h) Need Map Matching, which is a mapped hierarchy of needs and purposes and is referenced to determine whether the external code fits the overall purpose of the system;

라이트(writing)하기 위해, 구문 모듈은 상기 목적 모듈에서 복잡한 형식화된 목적을 수신한 다음 임의 코드 구문으로 코드를 작성하고, 헬퍼 함수가 상기 임의 코드를 실제 실행 코드로 변환하며; 리드(reading)하기 위해, 상기 구문 모듈은 상기 목적 모듈에 해당 코드의 기능성에 대한 목적을 도출하기 위한 코드의 구문적 해석을 제공하고;For writing, the syntax module receives a complex formalized purpose from the purpose module and then writes code in arbitrary code syntax, and helper functions transform the arbitrary code into actual executable code; for reading, the syntax module provides the purpose module with a syntactic interpretation of the code to derive the purpose of the functionality of the code;

상기 신호 모방기는 상기 구문 모듈을 사용여 해커와 멀웨어의 통신 구문을 이해하고, 그러한 통신을 가로채서 민감한 데이터를 상기 해커에게 성공적으로 전송했다는 잘못된 인상을 멀웨어에게 주고, 해커들 또한 상기 LIZARD에 의한 멀웨어의 오류 코드를 전송 받아 상기 오류 코드가 멀웨어로 부터 온것처럼 보이게 하고;The above signal mimicker uses the above syntax module to understand the communication syntax between the hacker and the malware, intercepts such communication and gives the malware a false impression that it has successfully transmitted sensitive data to the hacker, and the hacker also receives the malware's error code transmitted by the LIZARD, making it appear as if the error code came from the malware;

상기 외부 코드 재 작성은 파생된 목적(Purpose)을 사용하여 코드 세트를 작성하여 상기 외부 코드의 원하는 목적 및 이해된 목적만이 상기 기업 내에서 실행되는 것을 보장하고, 의도하지 않은 함수의 실행이 상기 시스템에 액세스하지 못하도록 하는 시스템이다.The above external code rewriting is a system that writes a set of codes using a derived purpose to ensure that only the desired and understood purpose of the external code is executed within the enterprise, and that execution of unintended functions does not access the system.

상기 외부 코드 재 작성이 잠재적으로 검출되지 않는 악의적인 이용을 완화하기 위해 외부 코드를 구문적으로 재 생산하고, 조합 방식(Combination Method)은 선언된 목적(Declared Purpose)과 파생된 목적(Derived Purpose)을 비교하고 일치시키며, 상기 목적 모듈은 복합적인 목적 형식(Complex Purpose Format)을 조작하기 위해 사용되고, 파생된 목적과 함께 니드 맵 매칭은 모든 기업의 관할권을 유지하기 위한 계층적 구조를 유지하여 관할구역 지향적 니드 맵의 공석(vacancies)에 따라 코드 블록의 목적을 정의하고 정당화하고, 입력 목적은 재귀적 디버깅(Recursive Debugging) 프로세스에 대한 입력(intake)인 시스템이다.The above external code rewriting is a system that syntactically regenerates external code to mitigate potentially undetected malicious exploitation, the Combination Method compares and matches the Declared Purpose with the Derived Purpose, the Purpose module is used to manipulate the Complex Purpose Format, the Need Map Matching along with the Derived Purpose maintains a hierarchical structure to maintain jurisdiction of all enterprises, defining and justifying the purpose of code blocks according to the vacancies of the jurisdiction-oriented Need Map, and the Input Purpose is an intake for the Recursive Debugging process.

상기 재귀적 디버깅은 코드 세그먼트를 통해 반복하여 버그를 테스트하고 버그 수정을 적용하며, 버그가 지속되면 전체 코드 세그먼트가 원래의 외부 코드 세그먼트로 대체되고, 원래 코드 세그먼트는 상기 가상의 난독화 및 행동적 분석을 용이하게 하기 위해 태그 되고,The above recursive debugging iterates through the code segment to test for bugs and apply bug fixes, and if the bug persists, the entire code segment is replaced with the original external code segment, and the original code segment is tagged to facilitate the above virtual obfuscation and behavioral analysis.

외부 코드와 함께 상기 코드의 원래 상태는 상기 목적 모듈 및 상기 구문 모듈에 의해 코드 재작성을 위해 해석되며, 재작성된 버전에 영구적인 버그가 있었기 때문에, 원래의 외부 코드 세그먼트가 설치될 필요가 있는 경우 상기 외부 코드는 디버거에 의해 직접 참조되고, 재작성된 코드에서 세그먼트들은 가상 런타임 환경(Virtual Runtime Environment)에서 테스트되어 코딩 버그를 체크하고, 상기 가상 런타임 환경은 코드 세그먼트들을 실행하며, 런타임 에러들을 체크하고, 코딩 버그와 함께 가상 런타임 환경에서 생성된 에러들은 범위 또는 종류로 정의되고,The original state of the code together with the external code is interpreted for code rewriting by the purpose module and the syntax module, and if the original external code segment needs to be installed because there was a permanent bug in the rewritten version, the external code is directly referenced by the debugger, and the segments in the rewritten code are tested in a Virtual Runtime Environment to check for coding bugs, and the Virtual Runtime Environment executes the code segments and checks for runtime errors, and the errors generated in the Virtual Runtime Environment together with the coding bugs are defined by range or type,

목적 정렬(Purpose Alignment)과 함께, 코딩 버그에 대한 잠재적인 솔루션은 명시된 목적에서 코드를 다시 유도함으로써 초안작성되고, 상기 코딩 버그의 범위는 이러한 버그를 피하기 위해 대체적인 형식으로 재 작성되며, 상기 잠재적인 솔루션은 출력되고, 솔루션이 남아 있지 않으면, 해당 코드 세그먼트에 대한 코드 재 작성이 취소되고 외부 코드의 원본 코드 세그먼트가 최종 코드 세트에서 사용되는 시스템이다.With Purpose Alignment, a system in which potential solutions to coding bugs are drafted by re-deriving the code from a stated purpose, the scope of the coding bug is rewritten in an alternative form to avoid the bug, the potential solutions are output, and if no solution remains, the code rewrite for that code segment is canceled and the original code segment from the external code is used in the final code set.

상기 니드 맵 매칭(Need Map Matching)의 동작을 위해, LIZARD 클라우드(LIZARD Cloud) 및 LIZARD 라이트(LIZARD Lite)는 기업 관할 지점의 계층적 맵을 참조하고, 상기 입력 목적(Input Purpose)이 상기 목적 모듈을 통해 요구되거나 파생되는지 여부에 관계없이, 상기 니드 맵 매칭은 코드/기능에 대한 정당성이 기업 시스템 내에서 수행되도록 검증하고, 상기 계층적 맵의 마스터 복사본은 MNSP의 LIZARD 클라우드에 저장되며, 상기 니드 맵 매칭 내의 니드 인덱스(Need Index)는 마스터 복사본을 참조하여 계산되고, 미리 최적화된 니드 인덱스는 모든 접근 가능한 종단 클라이언트들에 분배되고, 상기 니드 맵 매칭은 전체적인 시스템의 가장 적절한 니드를 위한 니드 요청(Need Request)을 수신하고, 대응하는 출력은 적절한 니드에 해당하는 복합적인 목적 형식인 시스템이다.For the operation of the above Need Map Matching, LIZARD Cloud and LIZARD Lite refer to a hierarchical map of a corporate jurisdiction, and regardless of whether the Input Purpose is required or derived through the purpose module, the Need Map Matching verifies that the legitimacy of the code/function is performed within the corporate system, a master copy of the hierarchical map is stored in the LIZARD Cloud of MNSP, a Need Index in the Need Map Matching is calculated by referencing the master copy, and a pre-optimized Need Index is distributed to all accessible end clients, and the Need Map Matching receives a Need Request for the most appropriate need of the entire system, and the corresponding output is a system in the form of a composite purpose corresponding to the appropriate need.

상기 기업을 위한 전체 LAN 기반시설(infrastructure)은 상기 MNSP 내에서 가상으로 재구성되고, 상기 해커는 상기 시스템이 행동 분석을 수행할 때 실제 LAN 기반시설과 가상 복제 버전의 요소들에 노출되고, 이러한 분석 결과에 위험이 나타나면, 가상의 복제 기반시설에 대한 해커의 노출은 실제 데이터 및/또는 장치가 손상될 위험을 줄이기 위해 증가하는 시스템이다.The entire LAN infrastructure for the above enterprise is virtually reconfigured within the MNSP, and the hacker is exposed to elements of the actual LAN infrastructure and virtual replica versions of it as the system performs behavioral analysis, and if the analysis reveals a risk, the hacker's exposure to the virtual replica infrastructure is increased to reduce the risk of actual data and/or devices being compromised.

멀웨어 루트 시그니처(Malware Root Signature)는 상기 AST에 제공되어 상기 멀웨어 루트 시그니처의 반복/ 변형이 형성되고, 상기 멀웨어의 다형성 변이는 I2GE에서 출력으로서 제공되고, 멀웨어 탐지기로 전송되는 시스템이다.A malware root signature is provided to the AST, and repetitions/variations of the malware root signature are formed, and polymorphic mutations of the malware are provided as output from I2GE and transmitted to a malware detector.

상기 멀웨어 탐지기는 컴퓨터의 구성요소의 세가지 레벨 모두에 배치되고, 여기서 컴퓨터의 구성요소의 세가지 레벨은 사용자 스페이스, 커널 스페이스 및 펌웨어/하드웨어 스페이스를 포함하고, 모든 스페이스들은 LIZARD Lite 에이전트에 의해 모니터링되는 시스템이다.The above malware detector is deployed at all three levels of the computer's components, wherein the three levels of the computer's components include user space, kernel space and firmware/hardware space, and all spaces are system monitored by the LIZARD Lite agent.

상기 컴퓨터 구현 시스템은 사이버 공간에서 비밀 동작을 통한 기계 비밀 정보(MACINT)와 응징(Retribution)으로 구현되고,The above computer implementation system is implemented with machine intelligence (MACINT) and retribution through secret operations in cyberspace,

a) 지능 정보 관리, 뷰잉, 및 제어를 제공하는 지능형 정보 및 구성 관리(I2CM; Intelligent Information and Configuration Management); 및a) Intelligent Information and Configuration Management (I2CM), which provides intelligent information management, viewing, and control; and

b) 입/출력 채널을 사용자에게 제공하는 관리 콘솔(MC; Management Console);b) Management Console (MC), which provides input/output channels to users;

을 포함하고,Including,

상기 I2CM은,The above I2CM is,

ⅰ) 중요하지 않은 중복 정보를 필터링하기 위해 일반적인 수준의 기준을 사용하고, 여러 플랫폼의 정보 스트림을 병합하고 태그 처리하는 집합체(Aggregation);i) Aggregation, which uses common-level criteria to filter out non-critical, redundant information and merges and tags information streams from multiple platforms;

ⅱ) 미리 구성된 보안 구성 및 연결 설정으로 새로운 기업 네트워크 장치를 배포하고 새로운 사용자 계정의 배포를 관리하기 위한 인터페이스로 구성된 구성 및 배포 서비스(Configuration and Deployment Service);ⅱ) Configuration and Deployment Service, which consists of an interface for deploying new enterprise network devices with pre-configured security configurations and connection settings and managing the deployment of new user accounts;

ⅲ) 태깅된 정보 풀(pool)은 관리 콘솔 사용자(Management Console User)의 관련 관할에 따라 독점적으로 분리되는 관할에 의한 분리(Separation by Jurisdiction);ⅲ) Separation by Jurisdiction, where the tagged information pool is exclusively segregated according to the relevant jurisdiction of the Management Console User;

ⅳ) 개별적인 위협에 따라 정보를 구성하는 위협별 분리(Separation by Threat); 및ⅳ) Separation by Threat, which organizes information according to individual threats; and

ⅴ) MNSP 클라우드, 신뢰 플랫폼 또는 추가적인 타사 서비스에 접근하는 자동화된 제어(Automated Controls);ⅴ) Automated Controls for access to the MNSP Cloud, Trust Platform or additional third-party services;

를 포함하는 시스템이다.It is a system that includes .

상기 MNSP 클라우드에서, 행동 분석(Behavioral Analysis)은 모의 데이터 환경(Mock Data Environment)에 있는 동안 멀웨어의 존재 상태와 수행된 동작을 관찰하고;In the above MNSP cloud, Behavioral Analysis observes the presence and performed actions of malware while in a mock data environment;

상기 멀웨어가 해커에게 가짜 데이터(Fake Data)를 전송할 때, 출력 신호는 가짜 해커(Fake Hacker)에 의해 수신되도록 재라우팅되고;When the above malware sends fake data to the hacker, the output signal is rerouted to be received by the fake hacker;

해커 인터페이스(Hacker Interface)는 멀웨어의 코드 구조를 수신하고, 멀웨어의 내부 구조를 리버스 엔지니어링하여 해커 인터페이스를 출력하고;Hacker Interface receives the code structure of the malware, reverse engineers the internal structure of the malware, and outputs the Hacker Interface;

가짜 해커와 가짜 멀웨어는 가상 환경에서 모방되며;Fake hackers and fake malware are imitated in virtual environments;

가상의 가짜 해커는 실제 멀웨어에 응답 신호를 보내 멀웨어의 다음 행동 패턴을 관찰하고, 해커는 실제 멀웨어의 동작/상태와 관계가 없는 가짜 응답 코드가 제공되는 시스템이다.A virtual fake hacker sends a response signal to real malware and observes the malware's next behavior pattern, and the hacker is provided with a fake response code that has nothing to do with the operation/state of the real malware.

익스플로잇 스캔(Exploit Scan)은 범죄 자산의 기능과 특성을 식별하고, 결과 스캔 결과는 대상 범죄 시스템(target Criminal System)에 침투하는 보복 익스플로잇 데이터 베이스(Retribution Exploits Database)를 통해 신뢰 플랫폼에서 보낸 프로그램인 익스플로잇에 의해 관리되고, 상기 보복 익스플로잇 데이터 베이스는 설립된 백도어(backdoor)와 알려진 취약점 형태로 하드웨어 벤더에 의해 제공되는 범죄 행위를 악용하는 수단을 포함하고, 통합된 법의학 증거 데이터 베이스(Unified Forensic Evidence Database)는 다수의 기업에 걸친 다수의 출처에서 수집된 법의학적 증거를 포함하는 시스템이다.Exploit Scan identifies the functions and characteristics of criminal assets, and the resulting scan results are managed by the exploit, a program sent from a trusted platform, through the Retribution Exploits Database that infiltrates the target Criminal System, and the Retribution Exploits Database contains means to exploit criminal activities provided by hardware vendors in the form of established backdoors and known vulnerabilities, and the Unified Forensic Evidence Database is a system that contains forensic evidence collected from multiple sources across multiple enterprises.

범죄 시스템의 슬리퍼 에이전트(sleeper agent)가 기업 네트워크의 파일을 캡쳐할 때, 방화벽은 로그를 생성하고, 상기 로그는 로그 집합체(Log Aggregation)로 전달되며, 상기 로그 집합체는 장기/딥 스캔(Long-Term/Deep Scan)과 실시간/ 표면 스캔(Real-Time/Surface Scan)을 위해 데이터를 카테고리 별로 분리하는 시스템이다.When a sleeper agent in a criminal system captures a file on a corporate network, the firewall creates a log, which is then forwarded to a log aggregation system, which categorizes data for long-term/deep scans and real-time/surface scans.

딥 스캔(Deep Scan)은 음모 탐지 서브-알고리즘 및 외부 엔티티 관리 서브-알고리즘을 활용하면서 빅데이터에 기여하고 참여하고; 보안 체크 포인트로의 표준 로그는 로그 집합체(Log Aggregation)에서 낮은 제한 필터로 집계되고 선택되며; 이벤트 인덱스 + 트래킹(Event Index + Tracking)은 이벤트 세부사항을 저장하고; 비정상 행위 탐지(Anomaly Detection)는 잠재적인 위험 이벤트를 결정하기 위해 딥 스캔 모듈에 의해 제공된 중간 데이터에 따라 이벤트 인덱스 및 보안 행동을 사용하고; 외부 엔티티 관리 및 음모 탐지는 이벤트 분석에 관여하는 시스템이다.Deep Scan contributes and participates in big data while utilizing conspiracy detection sub-algorithm and external entity management sub-algorithm; standard logs to security checkpoints are aggregated and selected from Log Aggregation with low restriction filter; Event Index + Tracking stores event details; Anomaly Detection uses Event Index and security actions based on intermediate data provided by Deep Scan module to determine potential risk events; External Entity Management and Conspiracy Detection are systems involved in event analysis.

상기 신뢰 플랫폼은 임의의 컴퓨터를 검색하여 자신 또는 자신의 서버의 친척/이웃(자신과 연결된 다른 서버)가 상기 신뢰 플랫폼에 대해 이전에 더블(double) 또는 트리플(triple) 에이전트가 설정되었는지를 확인하고,The above trust platform scans any computer to see if it or its server's relatives/neighbors (other servers connected to it) have previously set up a double or triple agent for the above trust platform.

에이전트 룩업 확인(agent lookup check)은 신뢰할 수 있는 더블 에이전트 인덱스+트래킹 클라우드 및 신뢰할 수 있는 트리플 에이전트 인덱스+트래킹 클라우드에서 수행되며;Agent lookup check is performed on the trusted double agent index + tracking cloud and the trusted triple agent index + tracking cloud;

임의의 컴퓨터에 의해 신뢰되는 더블 에이전트는 신뢰되는 채널을 통하여 익스플로잇을 푸쉬하고, 상기 익스플로잇은 민감한 파일을 찾아서 격리하고, 그것의 정확한 상태를 신뢰 플랫폼으로 되돌려 보낸 다음, 범죄의 컴퓨터에서 민감한 파일을 지우려고 시도하는 시스템이다.A double agent trusted by any computer is a system that pushes an exploit through a trusted channel, which locates and quarantines sensitive files, reports their exact state back to the trusted platform, and then attempts to erase the sensitive files from the criminal's computer.

ISP API 요청은 신뢰 플랫폼을 통해서 생성되고, 네트워크 감시(Network Oversight)에서 임의의 시스템에 대한 네트워크 로그와 범죄용 컴퓨터로의 잠재적인 파일 전송이 발견되고, 메타데이터(metadata)는 어떤 컴퓨터에 파일이 전송되었는지에 대한 중요한 확신을 결정하는데 사용되고, 상기 네트워크 감시는 범죄용 컴퓨터의 네트워크 세부 사항을 발견하고 그러한 정보를 상기 신뢰 플랫폼으로 재라우팅하고, 상기 신뢰 플랫폼은 사법 수사를 지원할 수 있도록 수립된 백도어를 개발하기 위하여 소프트웨어 및 하드웨어 벤더가 제공하는 보안 APIs를 차지하기 위해 사용되는 시스템이다.An ISP API request is generated through the trust platform, network logs for any system and potential file transfers to a criminal computer are discovered by Network Oversight, metadata is used to determine with critical confidence which computer the file was transferred to, said Network Oversight discovers network details of the criminal computer and reroutes such information to the trust platform, and the trust platform is a system used to exploit secure APIs provided by software and hardware vendors to develop backdoors that can assist in law enforcement investigations.

상기 신뢰 플랫폼은 소프트웨어 또는 펌웨어 업데이트를 범죄 컴퓨터에 푸시하여 새로운 백도어를 구축하고, 플라시보 업데이트(Placebo Update)는 가까운 유사한 기계에 푸시되어 스텔스(stealth)를 유지하며, 타겟 식별 상세정보(Target Identity Details)는 신뢰 플랫폼으로 전송되고, 상기 신뢰 플랫폼은 소프트웨어/펌웨어 유지 관리자(Software/Firmware Maintainer)와 통신하여 플라시보 업데이트 및 백도어 업데이트를 관련 컴퓨터로 푸쉬하고, 백도어 업데이트(Backdoor Update)는 컴퓨터에 설치된 미리-확립된 소프트웨어 업데이트 시스템을 사용하여 범죄 컴퓨터 시스템에 새로운 백도어를 도입하고, 상기 플라시보 업데이트는 백도어를 생략하고, 유지자(Maintainer)는 백도어를 타겟에 전송할 뿐만 아니라, 타겟에 평균 이상 노출되는 컴퓨터에도 백도어를 전송하고, 백도어 업데이트(Backdoor Update)을 통해 상기 익스플로잇(Exploit)을 구현하면 민감한 파일은 격리되고 복사되어 메타데이터 사용 내역을 나중에 분석할 수 있고, 모든 보충 포렌식 데이터가 수집되어 상기 신뢰 플랫폼에서 익스플로잇의 컨택 포인트(point of contact)로 보내지는 시스템이다.The Trust Platform pushes a software or firmware update to the criminal computer to establish a new backdoor, a Placebo Update is pushed to a nearby similar machine to maintain stealth, Target Identity Details are transmitted to the Trust Platform, the Trust Platform communicates with a Software/Firmware Maintainer to push the Placebo Update and the Backdoor Update to the relevant computers, the Backdoor Update introduces a new backdoor into the criminal computer system using a pre-established software update system installed on the computer, the Placebo Update omits the backdoor, the Maintainer not only transmits the backdoor to the target, but also to computers that have above average exposure to the target, and when the Backdoor Update implements the Exploit, sensitive files are isolated and copied so that metadata usage history can be analyzed later, and any supplemental forensic data is collected and stored in the Trust Platform to identify the point of contact of the exploit. It is a system that sends information to (contact).

장기 우선 순위 플래그(Long-term priority flag)는 신뢰 플랫폼 상에서 푸쉬되어 모든 변경/ 업데이트에 대해 범죄 시스템을 모니터링하고, 기업 시스템(Enterprise System)은 정의된 타겟의 모든 연관에 대해 모든 제휴 시스템 입력을 스캔하는 보증 모듈(Warrant Module)에 타겟을 제출하고, 일치하는 항목이 있으면 정보가 보증서가 정의되고 표적에 침투하려고 하는 기업 시스템으로 전달되고, 입력은 서로 유익한 보안 정보를 동기화하는 바람직한 분석 모듈(Desired Analytical Moduie)로 전송되는 시스템이다.A long-term priority flag is pushed on the Trust Platform to monitor the criminal system for any changes/updates, the Enterprise System submits the target to the Warrant Module which scans all affiliated system inputs for all associations of the defined target, if a match is found the information is passed on to the Enterprise System where the warranty is defined and the input is sent to the Desired Analytical Module which synchronizes the beneficial security information between them.

상기 컴퓨터 구현 시스템은 논리적으로 추론된 제로-데이터베이스 선험적 실시간 방위(Logically Inferred Zero-database A-priori Realtime Defense (LIZARD))이고,The above computer implementation system is a Logically Inferred Zero-database A-priori Realtime Defense (LIZARD),

a) 대부분 고정된 프로그램 모듈을 포함하는 정적 코어(SC; Static Core);a) Static Core (SC), which contains mostly fixed program modules;

b) 동적 쉘(Dynamic Shell)에서 모듈들을 수정, 생성 및 파괴하고, 보안 성능을 참조하기 위해 AST를 사용하고, 자동 코드 작성 방법을 처리하기 위해 반복 코어(Iteration Core)를 사용하는 반복 모듈(Iteration Module);b) Iteration Module, which modifies, creates and destroys modules in the Dynamic Shell, uses the AST to reference security performance, and uses the Iteration Core to handle automatic code generation methods;

c) AST가 찾은 결함에 따라 기본 반복(Base Iteration)을 수정하고, 차동 논리가 적용된 후 새로운 반복이 제안되며, 상기 반복 코어는 재귀적으로 호출되고, AST에 의해 테스트된 동일한 프로세스를 거치는 차동 수정 알고리즘(Differential Modifier Algorithm);c) Differential Modifier Algorithm, which modifies the Base Iteration based on the defects found by the AST, proposes a new iteration after applying the differential logic, and the iteration core is called recursively and goes through the same process tested by the AST;

d) AST에서 동적 쉘 반복(Dynamic Shell Iteration)의 알려진 보안 응답을 수신하고, 어떤 코드세트 구성이 보안 시나리오에 대해 알려진 정확한 응답(Correct Response)을 얻을 수 있는지를 추론하는 논리 추론 알고리즘(Logic Deduction Algorithm));d) A Logic Deduction Algorithm that receives known security responses from Dynamic Shell Iteration in the AST and infers which codeset configuration can obtain the known correct response for the security scenario;

e) 상기 반복 모듈(IM)에 의해 자동으로 프로그램 된 주로 동적 프로그램 모듈들을 포함하는 동적 쉘(DS, Dynamic Shell);e) Dynamic Shell (DS) containing mainly dynamic program modules automatically programmed by the above-mentioned iteration module (IM);

f) 외부의 코드를 제한된 가상환경으로 격리하는 코드 검역(Code Quarantine);f) Code Quarantine, which isolates external code into a limited virtual environment;

g) 데이터 및 전송 패킷에 은밀하게 삽입된 코드를 검출하는 비밀 코드 검출 (Covert Code Detection); 및g) Covert Code Detection, which detects codes covertly inserted into data and transmission packets; and

h) 외부 코드 목적을 파생한 후, 부분 또는 전체 코드 자체를 다시 작성하고 재작성만 실행되도록 허용하는 외부 코드 재작성(Foreign Code Rewrite);h) Foreign Code Rewrite, which derives the purpose of a foreign code, rewrites part or all of the code itself, and only allows the rewrite to be executed;

을 더 포함하고,Including more,

모든 기업 장치들은 LIZARD를 통해 라우팅되고, 기업 장치를 실행하는 모든 소프트웨어 및 펌웨어는 LIZARD를 통해 영구적인 프록시로써 다운로드/ 업로드를 수행하기 위한 하드코딩 되고, LIZARD는 동작중인 데이터, 사용 중인 데이터 및 휴지중인 데이터를 포함하는 세가지 타입의 데이터와 상호 작용하고, LIZARD는 파일, 이메일, 웹, 모바일, 클라우드 및 제거가능한 미디어로 구성된 매체와 상호 작용하는 시스템이다.All enterprise devices are routed through LIZARD, all software and firmware running on enterprise devices is hard-coded to perform downloads/uploads through LIZARD as a persistent proxy, LIZARD interacts with three types of data: data in motion, data in use and data at rest, LIZARD is the system that interacts with the media consisting of files, email, web, mobile, cloud and removable media.

시스템에 있어서,In the system,

a) 시스템이 낮은 신뢰 결정만을 수행할 수 있을 때 향후 반복 개선을 위해 데이터가 AST로 릴레이되는 AST 오버플로우 릴레이(AST Overflow Relay);a) AST Overflow Relay, where data is relayed to the AST for future iterative improvements when the system can only make low confidence decisions;

b) 외부 코드 블록의 모든 내부 기능이 의미가 있는지 여부를 확인하는 내부 일관성 검사(Internal Consistency Check);b) Internal Consistency Check, which verifies whether all internal functions of an external code block make sense;

c) 재 작성의 입력/ 출력 동적(dynamic)이 원본과 동일하다는 것을 확인하여, 원래(original) 코드의 숨겨진 모든 익스플로잇이 중복되어 실행되지 않도록 하는 미러 테스트(Mirro test);c) Mirror test to ensure that the input/output dynamics of the rewrite are identical to the original, ensuring that any hidden exploits in the original code are not duplicated and executed;

d) 외부 코드가 상기 시스템의 전체적인 목표에 부합하는지 결정하기 위해 참조되는 필요(need)와 목적의 매핑된 계층구조를 포함하는 니드 맵 매칭(Need Map Matching);d) Need Map Matching, which includes a mapped hierarchy of needs and objectives that are referenced to determine whether external code fits the overall goals of the system;

e) 혼합 환경에 제공할 데이터를 선택하고, 민감한 정보가 의심스러운 멀웨어에 접근 할 수 없도록 하는 우선 순위를 선택하는 실제 데이터 동기화 장치(Real Data Synchronizer);e) Real Data Synchronizer, which selects the data to be provided to the mixed environment and prioritizes which sensitive information should be inaccessible to suspicious malware;

f) 가상 환경의 외부에서 오는 엔티티와 데이터 간의 중개 인터페이스인 데이터 매니져(Data manager);f) Data manager, which is an intermediary interface between entities and data coming from outside the virtual environment;

g) 가상의 가짜 환경에 코드를 점차적으로 그리고 부분적으로 침투시켜 코드를 혼동시키고 제한하는 가상의 난독화(Virtual Obfuscation);g) Virtual Obfuscation, which confuses and limits code by gradually and partially permeating it into a virtual, fake environment;

h) 멀웨어를 모의 데이터 환경(Mock Data Environment)으로 몰래 그리고 이산적으로 전송하는 비밀 수송 모듈(Covert Transportation Module); 및h) Covert Transportation Module that secretly and discretely transfers malware to the Mock Data Environment; and

i) 의심스러운 엔티티(Suspicious Entity)로 다운로드되고 의심스러운 엔티티(Suspicious Entity)로부터 업로드 되는 모든 정보를 추적하는 데이터 호출 추적(Data Recall Tracking);을 더 포함하는 시스템이다.i) A system further comprising Data Recall Tracking; which tracks all information downloaded to and uploaded from a Suspicious Entity.

4가지 서로다른 유성의 목적을 비교하여 LIZARD에 의해 엔티티의 존재와 행동이 상기 시스템의 전반적인 목표을 위해 생산적으로 타당하고 합당한지를 확인하는 목적 비교 모듈(Purpose Comparison Module);을 더 포함하는 시스템이다.A system that further includes a Purpose Comparison Module; which compares the purposes of four different entities and verifies whether the existence and actions of entities are productively valid and reasonable for the overall goals of the system by LIZARD.

상기 반복 모듈은 상기 SC를 사용하여 상기 데이터 리턴 릴레이(DDR, Data Return Relay)에서 정의된 목적에 따라 DS의 코드 기반을 구문적으로 수정하고, LIZARD의 수정된 버전이 상기 AST에 의해 다양한 보안 시나리오와 병행하여 스트레스 테스트되는 시스템이다.The above-mentioned iteration module is a system that syntactically modifies the code base of the DS according to the purpose defined in the above-mentioned Data Return Relay (DDR) using the above-mentioned SC, and the modified version of LIZARD is stress-tested in parallel with various security scenarios by the above-mentioned AST.

상기 SC의 내부에서, 논리 도출(Logic Derivation)은 초기의 간단한 함수로부터 논리적으로 필수적인 함수를 도출하여, 함수 종속성의 전체 트리가 명시된 복합 목적으로부터 구축(built)되고;Within the above SC, logic derivation is built from the stated composite goal by deriving logically essential functions from initially simple functions;

코드 변환(Code Translation)은 구문 모듈(Syntax Module) 기능에 의해 직접 이해할 수 있는 임의의 일반 코드를 임의의 선택된 알려진 컴퓨터 언어로 변환하고, 알려진 컴퓨터 언어를 임의의 코드로 변환하는 역관계도 수행되고;Code Translation is the process of converting any general code that can be directly understood by the Syntax Module into any selected known computer language, and the reverse process of converting a known computer language into any code is also performed;

논리 축소(Logic Reduction)는 코드로 작성된 로직을 단순화된 형태로 축소하여 상호 연결된 함수의 맵을 생성하고;Logic Reduction reduces the logic written in code to a simplified form, creating a map of interconnected functions;

복합 목적 형식(Complex Purpose Format)는 전체 목적을 나타내는 상호 연결된 서브-목적을 저장하기 위한 저장 형식이고;Complex Purpose Format is a storage format for storing interconnected sub-purposes that represent an overall purpose;

목적 연관성(Purpose Associations)은 어떤 기능과 유형의 행동이 어떤 종류의 목적을 지칭하는지에 대한 하드 코딩된 참조(reference)이고;Purpose Associations are hard-coded references to which functions and types of behavior refer to which kinds of purposes;

반복 확장(Iterative Expansion)은 상기 목적 연관성을 참조하여 단순한 목표를 복잡한 목적으로 발전시키기 위한 세부사항과 복잡도를 추가하며;Iterative Expansion adds detail and complexity to evolve simple goals into more complex goals by referencing the above goal associations;

반복적인 해석은 모든 상호 연결된 기능을 통해 반복되고, 목적 연관성을 참조하여 해석된 목적을 생성하고;The iterative interpretation iterates through all interconnected functions, generating interpreted goals with reference to goal associations;

외부 코어(Outer Core)는 알 수 없는 외부 코드에 대한 논리적 목적을 도출하고, 명시된 함수 코드 목표에서 실행 가능한 코드를 생성하기 위해 함께 동작하는 상기 구문 및 목적 모듈들에 의해 형성되고;The Outer Core is formed by the above syntax and purpose modules that work together to derive a logical purpose for unknown external code and generate executable code from a specified functional code goal;

외부 코드(Foreign Code)는 LIZARD에 알려지지 않은 코드이며, 기능 및 의도된 목적은 알 수 없고, 상기 외부 코드는 내부 코어에 대한 입력이고 도출된 목적(Derived Purpose)은 출력이고, 상기 도출된 목적은 목적 모듈에 의해 추정된 주어진 코드의 의도이며, 도출된 목적이 복합 목적 형식으로 반환되는 시스템이다.Foreign Code is a code that is unknown to LIZARD, and its function and intended purpose are unknown, the Foreign Code is an input to the internal core, and the Derived Purpose is an output, the Derived Purpose is the intention of the given code estimated by the purpose module, and the system is such that the Derived Purpose is returned in the form of a composite purpose.

상기 IM은 보안 성능의 참조를 위해 AST를 사용하고, 상기 자동 코드 작성 방법을 처리하기 위해 상기 반복 코어를 사용하며, LIZARD가 낮은 신뢰를 가지고 의사 결정을 내려야 할 때 악의적인 공격과 나쁜 행위에 대한 DRR 데이터가 AST로 전달되고; 상기 반복 코어 내부에서, 차동 수정 알고리즘(DMA; Differential Modifier Algorithm)은 내부 코어(Inner Core)로 부터 구문/ 목적 프로그래밍 기능 및 시스템 지향 지침(Syntax/Purpose Programming Abilities and System Objective Guidance)을 수신하고, AST 17에서 발견된 결함에 따라 기본 반복(Base Iteration)을 수정하기 위해 이러한 코드세트를 사용하고; 가상 실행 환경을 실행하는 동안 상기 기본 반복을 통해 통과된 보안 위협을 표시하기 위해 보안 결과 결함(Security Result Flaws)이 시각적으로 표시되는 시스템이다.The above IM uses AST for reference of security performance, uses the iteration core to process the automatic code generation method, and when LIZARD has to make a decision with low confidence, DRR data for malicious attacks and bad behaviors are passed to the AST; inside the iteration core, a Differential Modifier Algorithm (DMA) receives Syntax/Purpose Programming Abilities and System Objective Guidance from the Inner Core, and uses these codesets to modify the Base Iterations according to the flaws found in AST 17; and a system in which Security Result Flaws are visually displayed to indicate security threats passed through the Base Iterations while executing a virtual execution environment.

상기 DMA 내부에서, 현재 상태(Current State)는 상징적으로 상관된 모양, 크기 및 위치를 가진 동적 쉘(Dynamic Shell) 코드세트를 나타내고, 이들 모양과 다른 구성들은 보안 지능 및 반응과 다른 구성을 나타내고, 상기 AST는 잘못된 것으로 밝혀진 현재 상태의 잠재적인 응답과 정확한 응답이 무엇인지를 제공하고;Within the above DMA, the Current State represents a set of Dynamic Shell codes with symbolically related shapes, sizes and positions, and these shapes and other configurations represent different configurations of security intelligence and responses, and the AST provides potential responses of the Current State that are found to be incorrect and what the correct response is;

공격 벡터(Attack Vector)는 사이버 보안 위협에 대한 상징적인 시연(demonstration)로 작용하고, 방향, 크기 및 색상은 모두 공격 벡터, 멀웨어의 크기 및 멀웨어의 유형과 같은 가설적인 보안 속성과 상호 관련이 있고, 상기 공격 벡터는 코드 세트의 보안 응답을 나타내기 위해 코드 세트를 상징적으로 반사하고(bounce off);An Attack Vector serves as a symbolic demonstration of a cybersecurity threat, and its direction, size and color are all correlated to hypothetical security properties such as the attack vector, the size of the malware and the type of the malware, and the Attack Vector symbolically bounces off a code set to indicate a security response from the code set;

정확한 상태(correct State)는 상기 동적 쉘의 코드 블록으로부터 원하는 보안 응답을 생성하기 위한 DMA의 프로세스의 최종 결과를 나타내며, 상기 현재 상태와 상기 정확한 상태 사이의 차이로 인해 서로 다른 공격 벡터 응답이 발생하고;The correct State represents the final result of the DMA's process for generating a desired security response from the code block of the dynamic shell, and the difference between the current State and the correct State results in different attack vector responses;

상기 AST는 정확한 보안 응답(Correct Security Response)과 함께 알려진 보안 결함(Known Security Flaws)을 제공하고, 논리적 추론 알고리즘(Logic Deduction Algorithm)은 상기 DS의 이전 반복을 사용하여 정확한 보안 응답 프로그램으로 알려진 동적 쉘의 우수하고 잘 갖추어진 반복을 생성하는 시스템이다.The above AST provides known security flaws along with the Correct Security Response, and the Logic Deduction Algorithm is a system that generates a good and well-equipped iteration of a dynamic shell known as the Correct Security Response program using the previous iteration of the DS.

가상 난독화(Virtual Obfuscation)의 내부에서, 의심스러운 코드는 데이터의 절반이 모의 데이터와 지능적으로 혼합되는 환경에 은밀하게 할당되고, 실제 시스템 내에서 작동하는 모든 대상은 가상 격리(Virtual Isolation)로 인해 부분적으로 또는 완전히 모의 데이터 환경으로 쉽고 은밀하게 전송될 수 있고, 모의 데이터 생성기(Mock Data Generator)는 불법적이고(counterfeit) 불필요한 데이터를 생성하기 위한 템플릿으로서 실제 데이터 동기화기(Real Data Synchronizer)를 사용하며, 유입되는 외부 코드의 인식에 대한 신뢰의 인식된 위험은 LIZARD가 선택한 난독화 수준에 영향을 미칠 것이고, 악의적인 코드에 대한 높은 신뢰는 대량의 모의 데이터를 포함하는 환경으로의 할당을 호출하고, 악의적인 코드에 대한 낮은 신뢰는 실제 시스템 또는 100% 모의 데이터 환경으로의 할당을 호출할 수 있는 시스템이다.Inside Virtual Obfuscation, the suspicious code is covertly assigned to an environment where half of its data is intelligently mixed with mock data, any object operating within the real system can be easily and covertly transferred to a partially or fully mock data environment due to Virtual Isolation, the Mock Data Generator uses the Real Data Synchronizer as a template to generate counterfeit and unnecessary data, and the perceived risk of trust in the recognition of incoming foreign code will influence the level of obfuscation chosen by LIZARD, a system where high trust in malicious code will call for assignment to an environment containing a large amount of mock data, and low trust in malicious code can call for assignment to either the real system or a 100% mock data environment.

데이터 회수 추적(Data Recall Tracking)은 의심스러운 엔티티로부터 업로드되고 의심스러운 엔티티로 다운로드된 모든 정보를 추적하고, 모의 데이터가 합법적인 기업 엔티티에 전송된 경우, 모든 모의 데이터를 호출하기 위한 콜백이 수행되고, 상기 실제 데이터는 대체 데이터로써 전송되고, 합법적인 기업 엔티티는 데이터가 가짜가 아님을 확인할 때까지 특정 정보에 대한 동작을 보류할 수 있도록 콜백 트리거(callback trigger)가 구현되는 시스템이다.Data Recall Tracking is a system where all information uploaded from and downloaded to a suspicious entity is tracked, and if the fake data is sent to a legitimate corporate entity, a callback is performed to recall all the fake data, the real data is sent as replacement data, and a callback trigger is implemented so that the legitimate corporate entity can withhold action on certain information until it is verified that the data is not fake.

행동 분석(Behavioral Analysis)은 의심스러운 엔티티의 다운로드 및 업로드 동작을 추적하여 잠재적인 정정 동작(Corrective Action)을 결정하고, 실제 시스템은 상기 가상 환경의 외부에 전부 존재하는 원래의 실제 데이터를 포함하고, 모의 데이터를 대체하는 실제 데이터는, 실제 데이터가 필터링 되지 않은 상태에서 데이터 회수 추적에 제공되어 실제 데이터 패치가 모의 데이터를 이전의 의심스러운 엔티티의 실제 데이터로 대체할 수 있도록 생성되는 곳이고; 가상으로 고립된 환경(Virtually Isolated Environment)에 숨겨진(submerged)진 데이터 관리자(Data Manager)는 데이터 회수 추적(Data Recall Tracking)에서 실제 데이터 패치(Real Data Patch)를 수신하고; 행동 분석(Behavioral Analysis)에 의해 무해한 코드(Harmless Code)가 악성코드로 삭제된 경우, 정정 동작(Corrective Action)은 이전의 의심스러운 엔티티의 모의 데이터를 그것이 나타내는 실제 데이터로 대체하기 위해 수행되고, 보안 토큰(Secret Token)은 LIZARD에 의해 생성 및 할당된 보안 문자열이고 실제로 무해한 엔티티가 그것의 작업을 진행할 수 없도록 하고, 상기 토큰(Token)이 누락된 경우, 이는 멀웨어라는 위험 평가 때문에 합법적인 엔티티가 부분적으로 모의 데이터 환경에 우연히 배치되었다는 가능성 있는 시나리오를 나타내고, 이후 지연 인터페이스(Delay Interface)로 지연된 세션(Delayed Session)이 활성화되고; 상기 토근이 발견되면, 이는 서버 환경이 실제이므로 지연된 세션이 비활성화됨을 나타내는 시스템이다.Behavioral Analysis tracks the download and upload behavior of the suspicious entity to determine potential Corrective Actions, wherein the real system contains original real data that exists entirely outside of the virtual environment, and the real data that replaces the mock data is provided to Data Recall Tracking in an unfiltered state so that a real data patch can be generated to replace the mock data with the real data of the previous suspicious entity; A Data Manager submerged in the Virtually Isolated Environment receives the Real Data Patch from Data Recall Tracking; If the harmless code is detected as malware by the Behavioral Analysis, the Corrective Action is performed to replace the simulated data of the previous suspicious entity with the real data it represents, the Secret Token is a secure string generated and assigned by LIZARD and actually prevents the harmless entity from proceeding with its operation, and if the Token is missing, this indicates a probable scenario that a legitimate entity has been accidentally placed in a partially simulated data environment due to a risk assessment that it is malware, and then a Delayed Session is activated with the Delay Interface; if the Token is found, this is a system that indicates that the server environment is real and therefore the Delayed Session is deactivated.

상기 행동 분석(Behavioral Analysis) 에서 목적 맵(Purpose Map)은 시스템 목표의 계층 구조로서 전체 기업 시스템에 목적을 부여하고, 선언된 활동 및 코드 베이스 목적은 의심스러운 엔티티가 주장하는 바에 상관없이 고유 시스템 요구와 비교되고; 활동 모니터링(Activity Monitoring)에서 의심스러운 엔티티의 스토리지, CPU 프로세싱, 및 네트워크 활동이 모니터링 되고, 상기 구문 모듈은 그러한 활동을 원하는 기능 관점에서 해석하고, 그러한 기능은 목적 모듈에 의한 행동에서 의도된 목적으로 변환되고, 코드 베이스는 의심스러운 엔티티의 소스 코드/ 프로그래밍 구조이고 상기 구문 모듈로 전달 되며, 상기 구문 모듈은 코딩 구문을 이해하고 프로그래밍 코드와 코드 활동을 상호 연결된 함수의들 중간 맵으로 감소시키며, 상기 목적 모듈은 의심스러운 엔티티, 코드베이스 목적의 출력 및 동작 목적의 의도를 산출하고, 상기 코드베이스 목적은 LIZARD의 구문 프로그래밍 기능에 의해 파생된 엔티티의 알려진 목적, 기능, 관할권 및 권한을 포함하며, 상기 동작 목적에는 LIZARD의 스토리지, 처리 및 네트워크 활동에 대한 이해로 이해되는 엔티티의 알려진 목적, 기능, 관할권 및 권한을 포함하고, 선언된 목적은 엔티티 자체에 의해 선언된 엔티티의 가정된 목적, 기능, 관할권 및 권한이고, 상기 요구된 목적은 상기 기업 시스템이 요구하는 예상되는 목적, 기능, 관할권 및 권한을 포함하고, 모든 목적은 상기 비교 모듈(Comparison Module)에서 비교되며, 목적들 사이의 불일치는 정정 동작(Corrective Action)으로 연결되는 목적상 발산 시나리오(Divergence in Purpose scenario)가 호출되는 시스템이다.In the above Behavioral Analysis, the Purpose Map is a hierarchy of system goals that gives purpose to the entire enterprise system, and the declared activities and code base goals are compared with the inherent system needs, regardless of what suspicious entities claim; In Activity Monitoring, the storage, CPU processing, and network activities of the suspicious entity are monitored, the syntax module interprets such activities in terms of desired functions, and such functions are converted from actions to intended purposes by the purpose module, the code base is the source code/programming structure of the suspicious entity and is passed to the syntax module, the syntax module understands the coding syntax and reduces the programming code and code activities into an intermediate map of interconnected functions, the purpose module produces the intent of the suspicious entity, the output of the code base purpose, and the operation purpose, the code base purpose includes the known purposes, functions, jurisdictions, and authorities of the entity derived by the syntax programming functions of LIZARD, the operation purpose includes the known purposes, functions, jurisdictions, and authorities of the entity understood by the understanding of the storage, processing, and network activities of LIZARD, the declared purposes are the assumed purposes, functions, jurisdictions, and authorities of the entity declared by the entity itself, the required purposes include the expected purposes, functions, jurisdictions, and authorities required by the enterprise system, and all the purposes are compared to the comparison module. The system is a system where the objectives are compared in a Module, and any mismatch between objectives is called a Divergence in Purpose scenario, which leads to a Corrective Action.

상기 컴퓨터 구현 시스템은 비판적 사고의 기억과 인식(CTMP; Critical Thinking Memory & Perception)이고,The above computer-implemented system is Critical Thinking Memory & Perception (CTMP),

a) 알려진 인식 범위를 취하여 인식의 비판적 사고 범위를 포함하도록 업그레이드 하는 비판적 규칙 범위 확장기(CRSE; Critical Rule Scope Extender);a) Critical Rule Scope Extender (CRSE), which takes the known scope of cognition and upgrades it to include the scope of critical thinking of cognition;

b) 인식의 비판적 사고 범위를 사용하여 유도된 정정 규칙을 나타내는 정정 규칙(Correct rules);b) Correct rules, which represent correction rules derived using the critical thinking scope of cognition;

c) 필요하고 관련 있는 비판적 사고 결정을 내리기 위해 현재 확정되고 혼돈 분야(Chaotic Field)에서 기억의 스캔에 따라 실행되는 규칙을 실행하는 규칙 실행(RE; Rule Execution);c) Rule Execution (RE), which executes rules that are currently confirmed and executed based on memory scans in the Chaotic Field to make necessary and relevant critical thinking decisions;

d) 지각 관찰자 에뮬레이터(POE; Perception Observer Emulator)뿐만 아니라 RE에 의해서 도달된 결론을 비교함으로써 CTMP의 전반적인 출력을 결정하기 위한 최종 논리를 생성하는 비판적인 결정 출력(Critical Decision Output);d) Critical Decision Output, which generates the final logic to determine the overall output of the CTMP by comparing the conclusions reached by the RE as well as the Perception Observer Emulator (POE);

여기서 상기 POE는 관찰자의 에뮬레이션을 생성하고 모든 잠재적인 지각 포인트를 관찰자 에뮬레이션의 변화와 시험/비교 하고;Here, the POE generates an emulation of the observer and tests/compares all potential perception points with changes in the observer emulation;

상기 RE는 규칙 세트의 변화를 추적하는데 사용되는 체커보드로 구성되며, 상기 보드의 객체는 주어진 보안 상황의 복잡도를 나타내며, '보안 체커보드'를 통한 상기 객체의 이동은 상기 보안 규칙 세트의 응답에 의해 관리되는 보안 상황의 발전을 나타내는 시스템이다.The above RE is a system in which a checkerboard is used to track changes in a rule set, objects on the board represent the complexity of a given security situation, and the movement of the objects through the 'security checkerboard' represents the evolution of the security situation governed by responses to the security rule set.

시스템에 있어서,In the system,

a) 선택된 패턴 매칭 알고리즘(SPMA; Selected Pattern Matching Algorithm)에 의해 제공된 결정인 주관적인 의견 결정들(Subjectiv opinion decisions);a) Subjective opinion decisions, which are decisions provided by the Selected Pattern Matching Algorithm (SPMA);

b) SPMA의 원시 메타 데이터로 구성되고, 알고리즘의 기계적 처리와 상기 결정에 도달한 방법을 성명하는 입력 시스템 메타데이터(Input system Metadata);b) Input system metadata, consisting of raw metadata of the SPMA and stating the mechanical processing of the algorithm and how it reached the above decisions;

c) 속성을 비교하여 주장을 논리적으로 이해하는 이유 처리(Reason Processing);c) Reason Processing to logically understand the argument by comparing attributes;

d) 파생된 결과로서의 규칙을 사용하고, 당면한 문제의 범위를 결정하기 위한 참고 포인트로서 사용되는 규칙 처리(Rule Processing);d) Rule Processing, where rules are used as derived results and as reference points to determine the scope of the problem at hand;

e) 실행 가능한 규칙을 위한 시장 변화 로그들을 스캔하는 메모리 웹(Memory Web);e) Memory Web that scans market change logs for actionable rules;

f) 상기 SPMA로부터 메타 데이터 로그들을 수신하는 원시적 인식 생성(Raw Perception Production)으로, 상기 로그들은 분석되며 그러한 알고리즘의 상기 인식을 나타내는 인식이 형성되고, 상기 인식은 인식 복잡 형식(PCF; Perception Complex Format)에 저장되고, POD에 의해 에뮬레이트 되며, 상기 SPMA에 의해 이미 응용되고 실행된 인식의 관점을 나타내는 인식의 응용된 관점(Applied Angles of Perception);f) Raw Perception Production, which receives metadata logs from the SPMA, wherein the logs are analyzed and a perception representing the perception of such an algorithm is formed, the perception is stored in a Perception Complex Format (PCF), emulated by a POD, and Applied Angles of Perception, which represent perspectives of perception already applied and executed by the SPMA;

g) 창조성 모듈에 영향을 주고 인식의 응용된 관점(Applied Angles of Perception)에 의해 제공된 입력에 따라 형성된 혼합된 인식을 생성하는 자동 인식 발견 메커니즘(APDM; Automated Perception Discovery Mechanism);g) Automated Perception Discovery Mechanism (APDM), which influences the creativity module and generates a composite perception formed according to the input provided by the Applied Angles of Perception;

h) 보고 가능한 로그의 범위를 벗어나는 잠재적인 알려지지 않은 지식의 범위 및 유형을 추정하고, CTMP의 후속 비판적 사고 기능이 모든 관련 지식의 잠재적 범위에 활용할 수 있고, 비판적 사고(Critical Thinking)는 사고 기반 규칙의 외부 쉘 관할 구역을 나타내는 자기 비판적인 지식 밀도(SCKO; Self-Critical Knowledge Density);h) Estimate the scope and type of potential unknown knowledge beyond the scope of reportable logs, and that subsequent critical thinking functions of CTMP can utilize the potential scope of all relevant knowledge, and Critical Thinking represents the outer shell jurisdiction of the thinking-based rules Self-Critical Knowledge Density (SCKO);

i) 현재 인식의 응용된 관점으로부터 연루될 수 있는 인식 데이터의 관점을 유도하는 함축 유도(Implication Derivation);i) Implication derivation, which derives the perspective of cognitive data that may be involved from the applied perspective of current cognition;

를 더 포함하고,Including more,

여기서 상기 SPMA는 인식과 규칙을 통해 CTMP가 수행된 비판적 사고와 병치되는 시스템이다.Here, the above SPMA is a system that is juxtaposed with the critical thinking performed by CTMP through recognition and rules.

시스템에 있어서,In the system,

a) CVF가 규칙 구문 파생(Rule Syntax Derivation)으로부터 수신한 상기 인식으로 형성된 인식 매칭(Perception Matching);으로, 새로 형성된 CVF는 유사한 인덱스를 갖는 PS 내의 관련 인식을 검색하는데 사용되며, 상기 잠재적인 일치들은 규칙 구문 생성(RSG; Rule Syntax Generation)으로 복귀되고;a) Perception Matching formed by the perceptions received from the Rule Syntax Derivation; the newly formed CVF is used to search for relevant perceptions in the PS having similar indices, and the potential matches are returned to the Rule Syntax Generation (RSG);

b) 인식 저장(PS; Perception Storage)의 데이터베이스 색인을 기준으로 향상된 로그 데이터로부터 도출한 CVF를 사용하는 저장 검색(SS; Storage Search)이고, PS에서 인식은 가중치 외에도 비교 가능한 변수 형식(CVF; comparable variable format)을 색인으로 저장하며;b) Storage Search (SS) using CVF derived from enhanced log data based on database index of Perception Storage (PS), where in PS, perception stores a comparable variable format (CVF) as an index in addition to weights;

c) 엔지니어가 상기 SPMA로부터 변수 할당을 역으로 수행하는 메트릭 처리(Metric Processing);c) Metric Processing, where the engineer reversely performs variable assignment from the SPMA;

d) 할당 응답의 원래 인식을 복제하기 위하여 상기 할당 응답 및 대응하는 시스템 메타데이터를 사용하는 인식 복제(PD; Perception Deduction);d) Perception Deduction (PD), which uses the allocation response and corresponding system metadata to replicate the original perception of the allocation response;

e) 디버깅 및 알고리즘 추적이 구문 기반 정보 분류를 사용하여 별개의 범주로 구분되는 메타 데이터 범주화 모듈(MCM; Metadata Categorization Module)로, 상기 범주는 위험 및 기회에 대한 상관 관계를 가진 명확한 할당 응답을 구성하고 생성하는데 사용되고;e) A Metadata Categorization Module (MCM) where debugging and algorithm tracing are separated into distinct categories using syntax-based information classification, which are then used to structure and generate clear allocation responses with correlations to risks and opportunities;

f) 메트릭의 범주를 인식의 관점으로 분류하는 메트릭 조합(Metric Combination);f) Metric Combination, which classifies the categories of metrics into categories based on the perspective of recognition;

g) 개별적인 메트릭을 인식의 전체 관점으로 되돌려놓는 메트릭 변환(Metric Conversion);g) Metric Conversion, which converts individual metrics back into a holistic view of perception;

h) 개별적인 데이터베이스에 카테고리 별로 다양한 관점의 인식 및 다수의 메트릭을 저장하는 메트릭 확장(ME; Metric Expansion);h) Metric Expansion (ME), which stores multiple metrics and various perspectives by category in individual databases;

i) 정보의 스트림을 비교 가능한 변수 형식(CVF)으로 변환하는 비교 가능한 변수 형식 생성기(CVFG; Comparable Variable Format Generator);를 더 포함하는 시스템이다.i) a system further comprising a Comparable Variable Format Generator (CVFG) for converting a stream of information into a Comparable Variable Format (CVF);

시스템에 있어서,In the system,

a) CVF가 규칙 규문 유도(RSD; Rule Syntax Derivation)로부터 수신된 인식으로부터 형성되는 인식 매칭(Perception Matching);a) Perception Matching, where CVF is formed from perceptions received from Rule Syntax Derivation (RSD);

상기 새롭게 형성된 CVF는 유사한 인덱스를 갖는 PS에서 관련 인식을 검색하는데 사용되며 잠재적인 매치는 규칙 구문 세대(RSG, Rule Syntax Generation)로 리턴되며;The newly formed CVF is used to search for relevant recognitions in PS with similar indices, and potential matches are returned to Rule Syntax Generation (RSG);

b) 입력 데이터로부터 형성된 혼돈 분야(Chaotic Field)가 형성되는 메모리 인식(MR; Memory Recognition);b) Memory Recognition (MR) where a chaotic field is formed from input data;

c) 전체 컨셉을 개별적으로 인덱스로 최적화하는 메모리 컨셉(Memory Concept) 색인화로, 여기서 상기 인덱스는 문자 스캐너가 혼돈 분야와 상호 작용하기 위해 사용되며;c) Memory Concept indexing, which optimizes the entire concept as an individual index, where the index is used by the character scanner to interact with the chaos domain;

d) 규칙의 개별 부분을 인식 태그와 함께 수신하는 규칙 수행 파서(Rule Fulfillment Parser)로, 각 부분은 메모리 인식(Memory Recognition)에 의해 혼돈 영역에서 발견되거나 발견되지 않는 것으로 표시되며, 상기 REP는 모든 부분들의 조합인 전체 규칙이 상기 RE 를 유용하게 하기 위해 혼돈 영역(Chaotic Field)에서 충분히 인식되었는지 논리적으로 추론하고;d) a Rule Fulfillment Parser which receives individual parts of a rule together with recognition tags, each part being marked as found or not found in the chaotic field by memory recognition, and the REP logically infers whether the entire rule, which is the combination of all parts, is sufficiently recognized in the chaotic field to make the RE useful;

e) 정정 규칙은 모든 동작, 속성, 조건 및 객체가 별도로 쌓이는 유형에 따라 분리되고 구성되는 규칙 구문 형식 분리(RSFS; Rule Syntax Format Separation);e) Rule Syntax Format Separation (RSFS), where correction rules are separated and organized by type, where all actions, properties, conditions and objects are stacked separately;

f) 논리적 '흑백' 규칙이 인식 기반의 메트릭으로 전환되는 규칙 구문 어원(Rule Syntax Derivation)으로, 다수의 규칙의 복잡한 배열은 다양한 그라디언트의 여러 메트릭을 통해 표현되는 하나의 일관된 인식으로 전환되고;f) Rule Syntax Derivation, where logical 'black and white' rules are transformed into perception-based metrics, where complex arrangements of multiple rules are transformed into a single coherent perception expressed through multiple metrics of different gradients;

g) 인식 형식(Perception Format)에 저장된 이전에 형성된 인식을 수신하고, 인식의 내부 메트릭 구조와 결합하는 규칙 구문 세대(RSG; Rule Syntax Generation)로, 이러한 그라디언트 기반의 메트릭 측정값은 원래의 인식의 입력/ 출력 정보 흐름을 에뮬레이트하는 이진 및 논리적 규칙의 집합으로 변환되고;g) Rule Syntax Generation (RSG), which receives previously formed perceptions stored in a Perception Format and combines them with the internal metric structure of the perception, whereby these gradient-based metric measures are converted into a set of binary and logical rules that emulate the input/output information flow of the original perception;

h) 정정 규칙(Correct rules)은 관찰되는 객체의 현실에 일치하는 규칙 세트의 정확한 표현을 나타내는 규칙 구문 형식 분리(RSFS; Rule Syntax Format Separation)로, 정정 규칙은 유형에 따라 분리 및 구성되고, 모든 동작, 속성, 조건 및 객체가 별도로 쌓여 시스템이 혼돈 영역에서 발견되는 부분과 그렇지 않은 부분을 식별하고;h) Correct rules are Rule Syntax Format Separation (RSFS) that represents the exact representation of a set of rules that match the reality of the observed objects. Correct rules are separated and organized by type, and all actions, properties, conditions, and objects are stacked separately to identify the parts of the system that are found in the chaotic region and those that are not;

i) 논리적인 원칙을 사용하여 오류를 피하고, 어떤 종류의 규칙이 인지 내에서 메트릭의 많은 그라디언트를 정확하게 나타내는지 추론하기 위한 선천적인 논리적 추론(innate Logical Deduction);i) innate Logical Deduction to avoid errors by using logical principles and to infer what kind of rules accurately represent many gradients of a metric within a cognition;

j) 메트릭들의 인식들 내에서 상호 연결된 관계를 분석하는 메트릭 맥락 분석(Metric Context Analysis)으로, 특정 메트릭은 다양한 정도의 크기를 갖는 다른 메트릭에 의존할 수 없고, 이 맥락화는 규칙이 '디지털'구칙 집합 형식 내에 있는 미러링된 상호 연결된 관계를 보완하는데 사용되고;j) Metric Context Analysis, which analyzes the interconnected relationships within the perceptions of metrics, where a particular metric cannot depend on other metrics of varying magnitude, and this contextualization is used to complement the mirrored interconnected relationships within the 'digital' rule set format;

k) 규칙 구문 형식(RSF; Rule Syntax Format)의 구문을 준수하도록 규칙을 정렬하고 분리하는 규칙 구문 형식 변환(RSFC; Rule Syntax Format Conversion);을 더 포함하고,k) Rule Syntax Format Conversion (RSFC), which further includes aligning and separating rules to conform to the syntax of the Rule Syntax Format (RSF);

여기서 직관적인 결정(Intuitive Decision)은 활용 인식을 통해 비판적인 사고에 관여하고, 사고 결정(Thinking Decision)은 활용 규칙을 통해 비판적인 사고에 관여하며, 여기서 인식은 내부적 형식에 따라 정의된 형식 구문에 따라 직관적인 결정으로부터 수신된 데이터이고, 실행된 규칙(Fulfilled Rules)은 사고 결정으로부터 수신된 데이터이며, 상기 RE로부터 실행할 수 있는 규칙 세트의 모음이고, 상기 데이터는 내부 형식에 정의된 형식 구문에 따라 통과되고;Here, Intuitive Decision engages in critical thinking through utilization perception, Thinking Decision engages in critical thinking through utilization rules, and here, Perception is data received from Intuitive Decision according to a formal syntax defined in an internal format, and Fulfilled Rules is data received from Thinking Decision and is a collection of rule sets that can be executed from said RE, and said data is passed according to a formal syntax defined in an internal format;

여기서 동작들은 이미 수행되었거나 실행될 수 있는 동작의 활성화를 위해 고려되는 것을 나타내며, 여기서 속성은 동작(Action), 조건(Condition) 및 객체(Object)등 다른 요소를 설명하는 속성과 같은 특징을 나타내고, 조건은 논리적 연산 또는 연산자를 나타내며, 객체는 특징을 적용할 수 있는 대상을 나타고;Here, actions represent what is considered for activating actions that have already been performed or can be performed, and here, attributes represent characteristics such as properties that describe other elements such as Actions, Conditions and Objects, and conditions represent logical operations or operators, and objects represent targets to which the characteristics can be applied;

여기서 분리된 규칙 형식(Separated Rule Format)은 사전-메모리 인식(pre-Memory Recognition) 단계로 간주되는 규칙 구문 형식 분리(RSFS; Rule Syntax Format Separation)으로부터의 출력 및 다음-메모리 인식 단계로 간주되는 메모리-인식(MR; Memory Recognition)으로 부터의 출력으로 사용되는 시스템이다.The Separated Rule Format here is a system used as an output from Rule Syntax Format Separation (RSFS), which is considered a pre-memory recognition step, and as an output from Memory Recognition (MR), which is considered a next-memory recognition step.

시스템에 있어서,In the system,

a) 상기 로그들의 형식을 스캔 가능한 단일 혼돈 영역으로 결합하는 혼돈 영역 파싱(CFP; Chaotic Field Parsing);a) Chaotic Field Parsing (CFP), which combines the formats of the above logs into a single scannable chaotic field;

b) 상기 정정 규칙들(Correct Rules)을 보충하기 위해 메모리 인식(MR)로부터 생성되는 추가 규칙들(Extra Rules);b) Additional rules (Extra Rules) generated from memory recognition (MR) to supplement the above Correct Rules;

을 더 포함하고,Including more,

내부의 인식 매칭(PM; Perception Matching)에서, 메트릭 통계는 인식 저장(Perception Storage)에서 통계 정보를 제공하고, 오류 관리(Error Management)는 개별 메트릭들 중 하나에서 발생하는 구문 및/또는 논리적 오류들을 분석하며, 분리 메트릭들(Separate Metrics)은 각각의 개별 메트릭을 입력 인식의 단일의 단위로 결합된 이후 격리하고, 노드 비교 알고리즘(NCA; Node Comparison Algorithm)은 두 개 이상의 CVF로 구성되는 노드를 수신하며, 여기서 CVF의 각각의 노드는 특성의 크기의 정도를 나타내고, 유사성 비교가 개별 노드 단위로 수행되고, 총 합의 변화가 계산되고, 여기서 더 작은 변화량 수는 더 가까운 매치를 나타내는 시스템이다.In Perception Matching (PM) inside, Metric Statistics provides statistical information in Perception Storage, Error Management analyzes syntactic and/or logical errors occurring in one of the individual metrics, Separate Metrics isolates each individual metric after they are combined into a single unit of input perception, and Node Comparison Algorithm (NCA) receives a node consisting of two or more CVFs, wherein each node of the CVFs represents a degree of feature size, a similarity comparison is performed on an individual node basis, and a system in which a smaller number of changes indicates a closer match.

시스템에 있어서,In the system,

a) 아날로그 형식 인식이 결정과 관련되어 있는'아날로그'형식에 따라 인식을 처리하고 직관적인 사고(아날로그)는 단계 없이 부드러운 곡선의 그라디언트(경사도)로 저장되는 원시 인식들(Raw Perceptions);a) Raw Perceptions, which process perceptions in an 'analog' format that is related to decisions and intuitive thinking (analog) is stored as a gradient (slope) of a smooth curve without steps;

b) 디지털 형식 원시 규칙이 결정과 관련되어 있는 '디지털' 형식에 따라 규칙을 처리하고 논리적 사고(디지털)는 '회색 영역'이 거의 없는 단계를 저장하는 원시 규칙들(Raw Rules);b) Raw Rules, which process rules in a 'digital' format where the raw rules are relevant to the decision and logical thinking (digital) stores steps with almost no 'grey areas';

을 더 포함하고,Including more,

여기서 실현되지 않는 규칙들(Unfulfilled Rules)은 논리적 종속 관계에 따라 혼돈의 영역에서 충분히 인식되지 않은 규칙 세트이며, 실현되는 규칙들(Fulfilled Rules)은 논리적 종속 관계에 따라 혼돈의 영역에서 충분히 인식되는 규칙 세트이고;Here, the Unfulfilled Rules are a set of rules that are not fully recognized in the domain of chaos according to logical dependencies, and the Fulfilled Rules are a set of rules that are fully recognized in the domain of chaos according to logical dependencies;

큐 관리(QM; Queue Management)는 구문 관계 복원(SRR; Syntactical Relationship Reconstruction)을 활용하여 각 개별 부품을 가장 논리적인 순서로 분석하고, 메모리 인식(Memory Recognition) 결과에 액세스하여 이진법의 예/ 아니오 플로우 질문에 응답하고, 적절한 조치를 취할 수 있으며, 여기서 상기 QM이 모든 단계적 규칙 세그먼트를 검사하고, 단일 세그먼트가 혼돈의 영역에서 누락되고 나머지 세그먼트가 적절한 관계에 있지 않으면, 상기 규칙 세트는 실행되지 않은 것으로 표시되어지는 시스템이다.Queue Management (QM) is a system that utilizes Syntactical Relationship Reconstruction (SRR) to analyze each individual part into the most logical order, accesses the Memory Recognition results to answer binary yes/no flow questions and take appropriate actions, where the QM examines every step rule segment, and if a single segment is missing from the region of confusion and the rest of the segments are not in the proper relationship, the rule set is marked as not executed.

순차적 메모리 구성은 순차 정보의 '체인'을 위해 최적화된 정보 저장 장치이며, 메모리 액세스 포인트(Points of Memory Access)에서 각 노드(블록)의 폭은 기억된 객체(노드)에 대한 관잘차의 직접 접근성을 나타내며, 접근성의 범위(Scope of Accessibility)에서 각각의 문자는 관찰자에 대한 직접적인 메모리 접근 포인트를 나타내며, 접근성의 더 넓은 범위는 시퀀스 노드 당 접근성의 더 많은 포인트가 더 많음을 나타내고, 더 많은 시퀀스는 임의로 선택된 노드가 아닌 '순서대로'만 참조되는 시퀀스가 많을수록 접근성의 범위(시퀀스의 크기와 연관된)가 좁아지고, 중첩된 하위 시퀀스 레이어에서 강한 비 균일성을 나타내는 시퀀스가 상호 연결된 일련의 작은 하위 시퀀스로 구성되는 시스템이다.A sequential memory organization is an information storage device optimized for a 'chain' of sequential information, where the width of each node (block) in the Points of Memory Access represents the direct accessibility of an observer to a remembered object (node), and in the Scope of Accessibility, each letter represents a direct memory access point for an observer, a wider scope of accessibility represents more points of accessibility per sequence node, and a more sequence is a system in which the scope of accessibility (related to the size of the sequence) becomes narrower as there are more sequences that are referenced only 'in order' rather than randomly selected nodes, and a sequence that exhibits strong non-uniformity in the nested sub-sequence layers is composed of a series of interconnected smaller sub-sequences.

비 순차적 메모리 구성은 비 순차적으로 연관된 항목의 정보 저장을 다루며, 여기서 가역성은 비순차적 배열과 비균일한 범위를 나타내고, 여기서 비 균일한 관계는 노드 당 접근적으로 넓은 접근 포인트에 의해 표시되고, 상기 노드의 순서가 셔플될 때 동일한 균일성이 존재하고, 중심 주제 및 조합(Nucleus Topic and Associations)에서는 동일한 일련의 노드가 반복되지만 중심부분(중심 객체)은 다르며, 여기서 상기 중심 부분은 기본 주제를 나타내며, 나머지 노드는 중심부분 주제가 정의되어 있지 않은 경우에 비해 쉽게 접근할 수 있는 메모리 이웃으로 작용하는 시스템이다.A non-sequential memory organization deals with the storage of information of non-sequentially related items, where reversibility denotes non-sequential arrangement and non-uniform range, where non-uniform relations are represented by widely spaced access points per node, and where the same uniformity exists when the order of the nodes is shuffled, and where in a Nucleus Topic and Associations system, the same series of nodes are repeated but the nucleus (nucleus object) is different, where the nucleus represents the basic topic, and the remaining nodes act as memory neighbors that are more easily accessible than when the nucleus topic is not defined.

메모리 인식(MR)은 알려진 개념을 인식하기 위해 혼돈의 영역을 스캔하고, 여기서 상기 혼돈 영역은 '화이트 노이즈'정보에 임의로 잠긴 개념의 '영역(field)'이며, 메모리 개념 보유(Memor Concept Retention)는 필드 검사를 위해 인덱싱되고 참조될 준비가 된 인식 가능한 개념을 저장하고, 여기서 3 문자 스캐너(3 Letter Scanner)는 혼돈의 영역을 스캔하여 타겟에 해당하는 3개의 문자 세그먼트를 검사하며, 여기서 5 문자 스캐너(5 Letter Scanner)는 혼돈의 영역을 스캔하여 타겟에 해당하는 5개의 문자 세그먼트를 검사하지만, 이번에는 상기 필드의 세그먼트는 전진마다 확인하는 상기 세그먼트는 전체 단어이고, 여기서 상기 혼돈의 영역은 상이한 비율로 스캔하기 위해 분할되고, 여기서 스캔하는 범위의 감소에 따라 정확도가 증가하며, 상기 스캐너의 영역 부분이 증가하면, 더 큰 문자 스캐너는 인식의 수행이 정확도는 떨어지지만 더 효율적이고, 여기서 메모리 개념 인덱싱(MCI; Memory Concept indexing)은 처리되지 않은 메모리 개념이 남아있는 것에 응답하여 스캐너의 크기를 교체하고, 여기서 MCI는 이용할 수 있는 가장 큰 스캐너로 시작하여 점차적으로 감소시켜 보다 작은 메모리 개념 타겟이 존재하는지 확인하기 위해 더 많은 계산을 찾을 수 있는 시스템이다.Memory Recognition (MR) scans a field of chaos to recognize known concepts, wherein the field of chaos is a 'field' of concepts randomly immersed in 'white noise' information, Memory Concept Retention stores recognizable concepts ready to be indexed and referenced for field examination, wherein a 3 Letter Scanner scans the field of chaos to examine 3 letter segments corresponding to targets, and wherein a 5 Letter Scanner scans the field of chaos to examine 5 letter segments corresponding to targets, but this time the segments of the field are whole words, and wherein the field of chaos is divided to be scanned at different rates, and wherein the accuracy increases with decreasing scanned area, and as the area portion of the scanner increases, a larger letter scanner performs recognition more efficiently but with less accuracy, and wherein Memory Concept Indexing (MCI) changes the size of the scanner in response to remaining unprocessed memory concepts, and wherein MCI starts with the largest available scanner and gradually decreases it. A system that can find more computations to check if a smaller memory concept target exists.

영역 해석 논리(FIL; Field Interpretation Logic)는 상이한 폭의 스캐너를 관리하기 위한 물류를 운영하고, 일반 범위 스캔(General Scope Scan)은 큰 문자 스캔으로 시작하여 작은 규모의 정확성을 희생하면서 적은 자원으로 넓은 범위의 영역을 탐색하고, 특정 범위 스캔(Specific Scope Scan)은 중요도가 있는 영역을 찾을 때 사용되고, 중복되거나 단단하지 않은 위치에서 값 비싼 정밀 스캔을 수행하지 않도록 줌인(확대)해야 하고, 상기 혼돈 영역에서 메모리 개념에 대한 추가 인식을 수신하는 것은 영역 범위가 메모리 개념들의 고밀도 포화를 포함하는 것을 나타내는 시스템이다.The Field Interpretation Logic (FIL) handles the logistics of managing scanners of different widths, the General Scope Scan starts with a large character scan and searches a wide area with fewer resources while sacrificing small-scale accuracy, the Specific Scope Scan is used when looking for areas of importance and should zoom in to avoid performing expensive precision scans on overlapping or loose locations, and the system receives additional recognition of memory concepts in the above-mentioned chaos region, indicating that the area scope contains a high-density saturation of memory concepts.

자동화된 인식 발견 메커니즘(APDM; Automated Perception Discovery Mechanism)에서 인식 각도는 전반적인 인식을 구성하는 인식의 여러 측면을 정의하는 범위, 유형, 강도 및 일관성을 비롯한 다수의 메트릭에 의해 구성되어 정의되고, 창조성 모듈은 인식의 복잡한 변형을 생성하고, 상기 인식 가중치는 상기 POE가 에뮬레이션하는 동안 인식이 갖는 상대적 영향의 정도를 정의하고, 두가지 입력 인식의 상기 가중치는 이전 세대의 인식에서 영향을 받은 혼성화된 메트릭을 포함하는 새로 반복된 인식의 가중치를 정의하는 동안 고려되는 시스템이다.In the Automated Perception Discovery Mechanism (APDM), the perception angle is defined by a number of metrics including range, type, strength and consistency which define several aspects of perception that constitute the overall perception, the creativity module generates a complex transformation of the perception, the perception weight defines the degree of relative influence the perception has while the POE emulates, and the weights of the two input perceptions are considered while defining the weights of the newly iterated perception which includes the hybrid metrics influenced by the previous generation of perceptions.

상기 CVFG에 대한 입력은 생성된 CVF의 노드 구성에 의해 표시되어야 하는 데이터를 나타내는 임의의 데이터 모음인 데이터 배치(Data Batch)이고, 데이터 배치에 의해 정의된 각각의 개별 유닛을 통해 순차적 전진이 수행되고, 데이터 유닛은 최종 CVF에 의해 참조된 것과 동일한 정보 구성을 갖는 노드 포맷으로 변환되고, 변환된 노드는 단계에서 자신의 존재를 체크할 때 일시적으로 노드 홀드아웃(Node Holdout)에 저장되고, 그들이 발견되지 않으면 발생 및 사용을 포함하는 통계 정보로 생성 및 업데이트되고, 홀드 아웃이 있는 모든 노드가 어셈블링되어 CVF와 같은 모듈 출력으로 푸시되는 시스템이다.The input to the above CVFG is a Data Batch, which is an arbitrary collection of data representing data to be represented by the node configuration of the generated CVF, a sequential forwarding is performed through each individual unit defined by the Data Batch, the Data Units are converted into a Node format having the same information configuration as that referenced by the final CVF, the converted Nodes are temporarily stored in a Node Holdout when their presence is checked in the stage, and if they are not found, they are generated and updated with statistical information including occurrence and usage, and all Nodes with Holdouts are assembled and pushed to a module output such as a CVF.

노드 비교 알고리즘은 원래의 CVF로부터 읽은 두 개의 노드 구성을 비교하고, 부분 매치 모드(PWN; Partial Match Mode)에서 하나의 CVF에 활성 노드가 있고 비교 후보에서 발견되지 않는 경우(노드가 휴면 상태인 경우), 비교에는 불이익이 없는 시스템이다.The node comparison algorithm compares two node configurations read from the original CVF, and in Partial Match Mode (PWN), there is no penalty for comparison if one CVF has an active node and it is not found in the comparison candidates (the node is dormant).

시스템 메타 데이터 분리(SMS; System Metadata Separation)는 입력 시스템 메타 데이터를 의미 있는 보안 원인-영향 관계들로 분리하고, 주체 스캔/융합(Subject Scan/Assimilation)을 사용하여 카테고리화 모듈에서 미리 만들어진 카테고리 컨테이너 및 원시 분석을 사용하여 시스템 메타 데이터에서 보안 상태의 주체/의심(subject/suspect)을 추출하고, 상기 주체는 보안 응답/변수 관계를 도출하기 위한 주요 참조 포인트로 사용되고, 위험 스캔/융합(Risk Scan/Assimilation)을 사용하여 보안 상태의 위험 요소가 사전 분류 컨테이너 및 카테고리모듈의 원시 분석을 사용하여 시스템 메타 데이터에서 추출되고, 상기 위험은 그러한 위험을 나타내거나 그러한 위험에 노출된 타겟 주체와 연관되고, 응답 스캔/융합(Rsponse Scan/assimilation)으로, 입력 알고리즘에 의해 만들진 보안 상태의 응답이 카테고리화 모듈로부터 미리 만들어진 카테고리 컨테이너들 및 원시 분석을 사용하여 상기 시스템 메타데이터로부터 추출되고, 상기 응답은 그러한 응답을 받을만한 보안 주체와 관련있는 시스템이다.System Metadata Separation (SMS) separates input system metadata into meaningful security cause-effect relationships; Subject Scan/Assimilation extracts subjects/suspects of security status from the system metadata using pre-built category containers and raw analysis from the categorization module; and the subjects are used as key reference points for deriving security response/variable relationships; Risk Scan/Assimilation extracts risk factors of the security status from the system metadata using pre-built category containers and raw analysis from the categorization module; and the risks are associated with target subjects that represent or are exposed to such risks; and Response Scan/assimilation extracts responses of the security status generated by the input algorithm from the system metadata using pre-built category containers and raw analysis from the categorization module; and the responses are systems related to security subjects that deserve such responses.

상기 MCM에서, 포맷 분리(Format Separation)는 인식된 포맷의 규칙 및 구문에 따라 메타 데이터를 구분하고 범주화하고, 로컬 포맷 규칙들 및 구문(Local Format Rules and Syntax)은 상기 MCM 모듈이 미리 포맷된 메타데이터 스트림을 인식할 수 있도록 하는 정의를 포함하고, 디버깅 추적(Debugging Trace)은 사용되는 변수, 함수, 방법 및 클래스와 각각의 입력 및 출력 변수 유형/컨텐츠를 제공하는 코딩 레벨 추적이고, 알고리즘 추적(Algorithm Trace)은 알고리즘 분석과 결합된 보안 데이터를 제공하는 소프트웨어 레벨 추적이며, 결과 보안 결정(승인/차단)은 해당 결정(정당화)에 도달한 경로와 각 요소가 보안 결정을 내리는데 기여한 적절한 가중치와 함께 제공되는 시스템이다.In the above MCM, Format Separation distinguishes and categorizes metadata according to the rules and syntax of the recognized format, Local Format Rules and Syntax include definitions that enable the MCM module to recognize pre-formatted metadata streams, Debugging Trace is a coding level trace that provides variables, functions, methods and classes used and their respective input and output variable types/contents, Algorithm Trace is a software level trace that provides security data combined with algorithm analysis, and the resulting security decision (approval/block) is a system that provides the path by which the decision (justification) was reached and the appropriate weighting that each element contributed to making the security decision.

메트릭 처리(MP; Metric Processing)에서, 보안 응답 X는 상기 SPMA가 선택한 결과 보안 응답에 기여하는 일련의 요소들을 나타내고, 초기 가중치는 상기 SPMA에 의해서 결정되며, 인식 추론(PD; Perception Deduction)은 보안 응답의 일부와 해당 시스템 메타데이터를 사용하여 상기 보안 응답의 원래 인식을 복제하고, 차원 시리즈의 인식 해석은 PD가 상기 SPMA의 보안 응답을 취하는 방법과, 상기 SPMA가 원래 사용한 지능형 '디지털 인식'의 전체 범위를 재생성하기 위해 관련있는 입력 시스템 메타 데이터를 연관시키는 방법을 표시하고, 모양 채우기(Shape Fill), 수량 쌓기(Stacking Quantity), 및 입체화(Dimensional)는 지능형 알고리즘의 상기 '관점'을 포착하는 디지털 인식들인 시스템이다.In Metric Processing (MP), a security response X represents a set of factors contributing to the resulting security response selected by the SPMA, the initial weights are determined by the SPMA, Perception Deduction (PD) replicates the original perception of the security response using part of the security response and the corresponding system metadata, Perception Interpretation of the Dimensional Series indicates how the PD takes the security response of the SPMA and associates relevant input system metadata to recreate the full range of intelligent 'digital perceptions' originally used by the SPMA, and Shape Fill, Stacking Quantity, and Dimensional are systems of digital perceptions that capture the 'perspectives' of the intelligent algorithm.

상기 PD에서, 보안 응답 X는 상기 입력/ 출력 감소(IOR) 모듈의 의도 공급 을 레버리지함으로써 상기 SPMA의 보안 응답에 대한 정당성을 결정하는 정당성/추론 계산(Justification/Reasoning Calculation)에 입력으로 전달되고, 상기 IOR 모듈은 메타 데이터에 열거된 다양한 함수 호출들의 분리된 입력 및 출력을 사용하고, 상기 메타 데이터 분리는 상기 MCM에 의해서 수행되는 시스템이다.In the above PD, the security response X is passed as input to the Justification/Reasoning Calculation that determines the justification of the security response of the SPMA by leveraging the intent feed of the Input/Output Reduction (IOR) module, wherein the IOR module uses separated inputs and outputs of various function calls listed in the metadata, and the metadata separation is a system performed by the MCM.

상기 POE의 경우, 입력 시스템 메타 데이터는 CVF에서 인식을 생성하기 위해 원시 인식 생성(RP2)에서 사용하는 초기 입력이고, 저장 검색(SS; Storage Search)을 사용하면 데이터 향상 로그에서 파생된 CVF가 인식 저장(PS)의 데이터 베이스 룩업에서 기준으로 사용되고, 랭킹(Ranking)에서 인식은 최종 가중치에 따라 정렬되고, 상기 데이터 강화 로그가 인식에 적용되어 차단/승인 권장사항을 생성하고, 상기 SCKD는 알 수 없는 지식의 예상 상위 범위를 정의하기 위해 상기 로그에 태그를 지정하고, 데이터 파싱(Data Parsing)은 원본 SPMA에 의해 결정된 원래 승인 또는 차단 결정(Approve or Block Decision)을 출력하기 위해 데이터 향상 로그들 및 입력 시스템 메타 데이터의 기본 해석을 수행하고, CTMP는 인식들에 따른 POE의 결정들을 비판하고, 논리적으로 정의된 규칙들에 따른 규칙 실행(RE; Rule Execution)의 결정들을 비판하는 시스템이다.For the above POE, input system metadata is the initial input used in raw recognition generation (RP2) to generate recognition from CVF, Storage Search (SS) uses CVF derived from data enhancement log as a reference in database lookup of recognition storage (PS), Ranking sorts recognitions according to final weight, and the data enhancement log is applied to recognition to generate block/approve recommendation, SCKD tags the log to define expected upper range of unknown knowledge, Data Parsing performs basic interpretation of data enhancement logs and input system metadata to output original Approve or Block Decision determined by original SPMA, and CTMP is a system that criticizes decisions of POE according to recognitions and criticizes decisions of Rule Execution (RE) according to logically defined rules.

메트릭 복잡도(Metric Complexity)에서, 원의 외부 경계는 개별 메트릭에 관한 알려진 지식의 최고점(peak)를 나타내고, 상기 원의 외부 모서리(edge)는 더 많은 메트릭 복잡도를 나타내지만 중심은 보다 적은 메트릭 복잡도를 나타내고, 중심 옅은 회색은 인식의 적용 각도의 현재 배치의 메트릭 조합을 나타내며, 외부 짙은 회색은 일반적으로 시스템에 의해 저장되고 알려진 메트릭 복잡도를 나타내고, ID의 목표는 관련 메트릭들의 복잡도를 증가시켜 인식의 각도를 복잡도와 수량으로 곱할 수 있고, 상기 짙은 회색 표면 영역은 인식의 적용 각도의 현재 배치의 전체 범위와 알려진 상한 경계에 따라 남겨진 범위의 양을 나타내며, 증강 및 복잡도 강화 시 상기 메트릭들은 메트릭 복잡도로 반환되며 메트릭 변환의 입력으로 전달되고, 메트릭 변환은 개별 및 전체 인식 각도를 역전시켜 최종 출력을 인식의 암시적 각도로 어셈블링하는 시스템이다.In Metric Complexity, the outer boundary of the circle represents the peak of known knowledge about individual metrics, the outer edges of the circle represent more metric complexity while the center represents less metric complexity, the center light gray represents the metric combination of the current batch of application angles of recognition, the outer dark gray represents the metric complexity that is generally stored and known by the system, the goal of ID is to increase the complexity of the relevant metrics so that the angles of recognition can be multiplied by the complexity and quantity, and the dark gray surface area represents the total range of the current batch of application angles of recognition and the amount of range left according to the known upper bound, and during augmentation and complexity enhancement, the metrics are returned as metric complexity and passed as input to the metric transformation, the system which inverts the individual and overall recognition angles and assembles the final output into the implicit angles of recognition.

SCKD의 경우 알려진 데이터 카테고리화(KDC; Known Data Categorization)는 입력으로부터 알려진 정보를 카테고리별로 구분하여 적절한 DB 유추 쿼리를 수행하고, 정보를 카테고리로 구분하고, 분리된 카테고리들은 개별적으로 상기 CVFG에 입력을 제공하고, CVF 포맷의 카테고리 정보를 출력하며, CVF 포맷은 저장 검색(SS)에 의해 알려진 데이터 범위 DB에서 유사성을 체크하기 위해 사용되고, 각 카테고리는 상기 SS 결과들에 따라 알려진 데이터의 관련 범위로 태그되고, 카테고리별로 알려지지 않은 정보의 태그 범위는 알려지지 않은 데이터 콤바이너(UDC; Unknown Data Combiner)에서 원래 입력과 동일한 스트림으로 다시 어셈블링되는 시스템이다.In the case of SCKD, Known Data Categorization (KDC) is a system that categorizes known information from input, performs an appropriate DB inference query, categorizes the information, and individually provides input to the CVFG for the separated categories and outputs category information in CVF format. The CVF format is used to check for similarity in the known data range DB by stored search (SS), and each category is tagged with a related range of known data according to the SS results, and the tag range of unknown information by category is reassembled into the same stream as the original input in the Unknown Data Combiner (UDC).

상기 컴퓨터 구현 시스템은 어휘 객관성 마이닝(LOM; Lexical Objectivity Mining)이고,The above computer implementation system is Lexical Objectivity Mining (LOM),

a) 질문이 전송되고, 질문에 대한 이해 및 대답/응답에 중요한 누락된 세부사항을 판독하기 위해 중앙 지식 보유(CKR; Central Knowledge Retention)를 레버리지하는, 초기의 쿼리 추론(IQR; Initial Query reasoning);a) Initial Query Reasoning (IQR), where a question is sent and the Central Knowledge Retention (CKR) is leveraged to decipher missing details that are important for understanding and answering/responding to the question;

b) 상기 질문 및 보충 쿼리 데이터가 전송되고, 인간 주체로부터 입력을 수신하고 인간 주체로 출력을 전송하며, 명확한 질문/주장(Clarified Question/Assertion)을 형성하는, 조사 명확화(SC; Survey Clarification);b) Survey Clarification (SC), where the above questions and supplementary query data are transmitted, input is received from a human subject, output is transmitted to the human subject, and a Clarified Question/Assertion is formed;

c) 주장 또는 질문의 형태로 제안을 받고, 그러한 제안과 관련된 개념의 출력을 제공하는, 주장 구성(AC; Assertion Construction);c) Assertion Construction (AC), which receives a proposition in the form of a claim or question and provides an output of concepts related to such proposition;

d) 인간 주체와 합리적인 호소(RA; Rational Appeal) 모두에 대해 상기 AC에 의해 도달된 결론을 제시하기 위한 인터페이스인, 응답 프리젠테이션(Response Presentation);d) Response Presentation, which is an interface for presenting the conclusions reached by the AC to both human subjects and rational appeals (RA);

e) 관련 개념을 매핑하여 질문/주장 일관성(Question/Assertion consistency)에서 확증 또는 모순을 찾고, 주제에 대해 특정 입장을 취하는데 따르는 이점과 위험을 계산하는, 계층적 매핑(HM; Hierarchical Mapping);e) Hierarchical Mapping (HM), which maps related concepts to find confirmations or contradictions in Question/Assertion consistency and calculates the benefits and risks of taking a particular position on a topic;

f) LOM에 대한 지식을 참조하기 위한 상기 주요 데이터 베이스인, 중앙 지식 보유(CKR; Central Knowledge Retention);f) Central Knowledge Retention (CKR), the main database for referencing knowledge about LOM;

g) 쿼리 능력과 CKR에의 어시밀레이션(assimilation)을 위해 논리적으로 분리되어야 할 높은 신뢰도와 사전 비판된 지식을 수신하는, 지식 유효성 검증(KV; Knowledge Validation);g) Knowledge Validation (KV), which receives high confidence and pre-critical knowledge that needs to be logically separated for query capability and assimilation into CKR;

h) LOM의 응답을 수락하거나 비판으로 호소하기 위해 인간 주체에게 주어진 선택이고, 응답이 수락되면 KV로 처리되어 확인된(높은 신뢰도) 지식으로 CKR에 저장될 수 있으며, 인간 주체가 응답을 수락하지 않으면 그들은 인간에 의해 주어진 호소 이유를 확인하고 비판하는 RA로 전달되는, 수락 응답(Accept Response);h) Accept Response, which is a choice given to the human subject to either accept the LOM's response or appeal with criticism, and if the response is accepted, it can be processed by the KV and stored in the CKR as verified (high confidence) knowledge, and if the human subject does not accept the response, they are passed on to the RA, which verifies and criticizes the appeal reason given by the human.

i) 상기 CKR의 마스터 인스턴스로 LOM의 인터넷 클라우드 인스턴스를 실행하고, LOM을 프런트 엔드 서비스들, 백 엔드 서비스들, ㅌ사 어플리케이션 종속성들, 정보 소스들 및 상기 MNSP 클라우드와 연결하는, 관리형 인공 지능의 서비스 공급자(MAISP; Managed Artificially Intelligent Services Provider);를 더 포함하는 시스템이다.i) a system further comprising a Managed Artificially Intelligent Services Provider (MAISP) that runs an Internet cloud instance of LOM as a master instance of the CKR and connects LOM with front-end services, back-end services, TSA application dependencies, information sources and the MNSP cloud;

상기 프런트 엔드 서비스들은 인공 지능형 개인 보조 장치들, 통신 어플리케이션들과 프로토콜들, 홈 자동화 및 의료 어플리케이션을 포함하며, 상기 백 엔드 서비스 들은 온라인 쇼핑, 온라인 운송, 의료 처방전 주문을 포함하고, 상기 프런트 엔드 및 백 엔드 서비스들은 문서화된 API 인프라를 통해 상기 LOM과 상호 작용하므로 정보 전송 및 프로토콜의 표준화를 가능하게 하고, 상기 LOM은 자동화된 연구 메커니즘(ARM; Automated Research Mechanism)을 통해서 외부 정보 소스들로부터 지식을 검색하는 시스템이다.The front-end services include artificial intelligence personal assistants, communication applications and protocols, home automation and healthcare applications, and the back-end services include online shopping, online transportation and medical prescription ordering, and the front-end and back-end services interact with the LOM through a documented API infrastructure, thereby enabling standardization of information transfer and protocols, and the LOM is a system that retrieves knowledge from external information sources through an Automated Research Mechanism (ARM).

언어적 구성(LC; Linguistic Construction)은 인간 주체와 병렬 모듈의 원시 질문/주장 입력을 해석하여 언어적 구문의 논리적 분리를 생성하고, 개념 발견(CD; Concept Discovery)은 명확한 질문/주장 내에서 관심 포인트를 수신하고, CKR을 활용하여 관련 개념을 도출하고; 개념 우선순위(CP; Concept Prioritization)는 관련 개념을 수신하고 특수성 및 일반성을 나타내는 논리적 계층으로 주문하며; 응답 분리 로직(RSL; Response Separation Logic)은 상기 LC를 레버리지하여 상기 인간 응답(Human Response)을 이해하고, 적절하고 유효한 응답을 초기 설명 요청과 연관시켜 상기 SC의 목적을 달성하고; 상기 LC는 출력 단계 동안 리래버리지(re-leverage)되어 상기 SC에 의해 수신된 상기 보충 정보를 포함하도록 원래의 질문/주장을 수정하고; 문맥 구성(CC; Context Construction)은 주장 구성(AC; Assertion Construction)의 메타 데이터와 상기 인간 주체의 증거를 사용하여 비판적 사고를 위한 CTMP로 원시 사실을 제공하고; 결정 비교(DC; Decision Comparison)는 사전 비판 결정과 사후 비판 결정들 사이의 중첩을 결정하고; 개념 호환성 검출(CCD; Concept Compatibility Detection)은 상기 논리적 호환성 결과를 확인하기 위해 원래의 질문/주장과 함께 개념적 파생어를 비교하고; 이익/위험 계산기(BRC; Benefit/Risk Calculator)는 상기 CCD의 호환성 결과를 수신하고, 개념 구성에 함축된 변수의 변화도(gradients)를 포함하는 균일한 결정을 형성하는 이점과 위험을 고려하고; 개념 상호작용(CI; Concept Interaction)은 조사 설명(SC; Survey Clarification)을 통해 인간 주체로부터 수집된 정보의 일부에 AC개념과 관련된 속성을 할당하는 시스템이다.Linguistic Construction (LC) interprets raw question/assertion input from human subject and parallel module to generate logical separation of linguistic constructs; Concept Discovery (CD) receives points of interest within clear question/assertion and derives related concepts by utilizing CKR; Concept Prioritization (CP) receives related concepts and orders them into logical hierarchies representing specificity and generality; Response Separation Logic (RSL) leverages the LC to understand the human response and associates appropriate and valid responses with the initial clarification request to achieve the purpose of the SC; the LC is re-leveraged during the output stage to modify the original question/assertion to include the supplementary information received by the SC; Context Construction (CC) uses metadata of Assertion Construction (AC) and evidence of the human subject to provide raw facts as CTMP for critical thinking; Decision Comparison (DC) determines the overlap between pre-criticism decisions and post-criticism decisions; Concept Compatibility Detection (CCD) compares conceptual derivatives with original questions/claims to verify the logical compatibility results; Benefit/Risk Calculator (BRC) receives the compatibility results of CCD and considers the benefits and risks to form a uniform decision that includes gradients of variables implied in concept construction; Concept Interaction (CI) is a system that assigns properties related to AC concepts to a portion of information collected from human subjects through Survey Clarification (SC).

상기 IQR 내부의 LC는 상기 원래의 질문/주장을 수신하고; 상기 질문은 언어적으로 분리되고 상기 IQR은 상기 CKR을 활용하여 한번에 각 개별적 단어/문구를 처리하며; 상기 CKR을 참조하여, 상기 IQR은 상기 단어/문구의 상기 모호성을 고려하면 가능한 상기 잠재적 옵션을 고려하는 시스템이다.The LC within the IQR receives the original question/assertion; the question is linguistically separated and the IQR processes each individual word/phrase at a time using the CKR; and with reference to the CKR, the IQR is a system that considers the possible potential options considering the ambiguity of the word/phrase.

상기 조사 설명(SC)는 IQR로부터 입력을 수신하고, 상기 입력은 도달할 상기 원래의 질문/주장에 대한 객관적 답변을 위해 상기 인간 객체로서 답변해야 하는 일련의 요청된 설명들의 포함하고, 여기서 상기 명확화에 제공된 응답은 상기 응답들이 상기 명확화 요청들과 연관성 있는 응답 분리 로직(RSL; Response Separation Logic)에 전달되고; 상기 요청된 명확화와 병행하여 진행되는, 명확화 언어적 연관성은 상기 LC로 제공되며, 여기서 상기 연관성은 요청된 명확화 및 상기 언어 구조 사이의 상기 내부 관계를 포함하고, 상기 RSL이 상기 원래의 질문/주장을 수정하여 LC가 상기 명확한 질문을 출력할 수 있는 시스템이다.The above-described survey description (SC) receives input from an IQR, wherein the input comprises a series of requested statements to be answered by the human object in order to arrive at an objective answer to the original question/claim, wherein the responses provided to the disambiguation are passed to a Response Separation Logic (RSL) where the responses are associated with the disambiguation requests; and a disambiguation linguistic association, which runs in parallel with the requested disambiguation, is provided to the LC, wherein the association comprises the internal relationship between the requested disambiguation and the linguistic structure, and the RSL modifies the original question/claim such that the LC can output the disambiguation question.

상기 명확한 질문/주장을 수신하는 주장 구성(Assertion Construction)을 위해, LC는 상기 질문을 관심 포인트들로 분해하고, 개념 발견으로 전달하며, 상기 CD는 상기 CKR을 활용하여 관련 개념을 유도하고, 상기 개념 우선순위(CP; Concept Prioritization)는 개념을 논리적 계측으로 순서화하고, 상기 최상위 계층은 가장 일반적 개념이 할당되는 반면 더 낮은 계층은 점진적으로 특정 개념이 할당되고, 상기 최상위 계층은 모듈식 입력으로서 상기 계층적 맵핑(HM; Hierarchical Mapping)으로 전달되고, 정보의 병렬적 전송에서 HM은 의존성 모듈 개념 상호작용(CI; Concept Interaction)에 의해 처리되는 관심의 포인트들을 수신하고, 여기서 상기 CI는 상기 CKR에서 상기 인덱스된 정보를 액세스함으로써 상기 관심의 포인트들로 속성을 할당하고, 상기 HM이 내부 프로세스를 완료하면 파생된 개념들이 호환성을 위해 테스트 되고 입장의 상기 이익들/위험들이 판단되고 반환되어진 후에, 최종 출력이 상기 AC로 반환되어지는 시스템이다.For Assertion Construction which receives the above clear question/assertion, the LC decomposes the question into points of interest and passes it to concept discovery, the CD derives related concepts by utilizing the CKR, the Concept Prioritization (CP) orders the concepts into logical measures, the top layer is assigned the most general concept while lower layers are progressively assigned specific concepts, the top layer is passed as a modular input to the Hierarchical Mapping (HM), in the parallel transmission of information, the HM receives points of interest which are processed by the dependency module Concept Interaction (CI), where the CI assigns properties to the points of interest by accessing the indexed information in the CKR, and when the HM completes its internal process, the derived concepts are tested for compatibility and the benefits/risks of a position are judged and returned, after which the final output is returned to the AC.

상기 HM에 대해, 상기 CI는 두 개의 개념들 사이에서 상기 호환성/충돌 레벨을 식별하는 CCD로 입력을 제공하고, 상기 호환성/충돌 데이터는 BRC로 전달되며, 이는 상기 호환성들 및 충돌들을 상기 이슈에 관한 전체적인 균일한 태도를 취하는 것에 관한 이익들 및 위험들로 변환하고, 위험/이익 요소들에 따른 상기 태도는 모듈식 출력으로서 AC로 전달하고, 상기 시스템은 상기 질문/주장의 상기 주관적 성격으로 지능의 변화도가 점진적으로 보충되는 것을 점차적으로 구축된 객관적 응답으로 나타내는 정보 흐름의 루프들을 포함하며; 여기서 상기 CI는 관심 포인트들을 수신하고 우선 순위가 부여된 개념의 최 상위 계층에 따라 각각을 해석하는 시스템이다.For said HM, said CI provides input to a CCD which identifies the level of compatibility/conflict between two concepts, said compatibility/conflict data is passed to a BRC which transforms said compatibilities and conflicts into benefits and risks regarding taking an overall uniform attitude on the issue, and said attitude according to risk/benefit factors is passed as a modular output to an AC, said system comprising loops of information flow representing an increasingly constructed objective response in which the subjective nature of the question/claim is progressively supplemented by a gradient of intelligence; wherein said CI is a system which receives points of interest and interprets each of them according to a top-level hierarchy of prioritized concepts.

RA에 대해, 핵심 논리(Core Logic)는 변환된 언어 텍스트를 처리하고 결과를 반환하며, 상기 결과가 높은 신뢰도인 경우 상기 결과는 CKR로 적절한 동화를 위해 지식 검증(KV; Knowledge Validation)에 전달되고, 상기 결과가 낮은 신뢰도인 경우 상기 결과는 자기 비판의 상기 싸이클을 계속하기 위해 AC로 전달되고, 핵심 논리는 언어적 요소들 없이 사전 비판적 결정(Pre-Criticized Decision)의 상기 형태로 LC로부터 입력을 수신하고, 상기 결정은 상기 주관적 의견으로서 CTMP로 전달되고, 결정은 또한 AC로부터의 메타 데이터와 인간 주체로부터의 잠재적 증거를 사용하여 '객관적 사실' 입력으로서 CTMP에 원시 사실을 제공하는 문맥 구성(CC)으로 전달되고, 두 가지 필수 입력을 받은 CTMP와 함께, 그러한 정보는 '객관적 의견'에 도달하는 최고의 시도를 출력하기 위해 처리되며, 여기서 상기 의견은 상기 사후 비판적 결정(Post-Criticized Decision)으로서 RA내에서 내부적으로 취급되고, 사전 비판적 및 사후 비판적 결정들 둘 다 상기 결정 비교(DC; Decision Comparison)로 전달되고, 상기 두 결정들 사이에서 겹쳐지는 상기 범위를 결정하며, 상기 호소 논증은 사실로 인정되거나 상기 호소가 무효한 이유를 성명하기 위해 상기 카운터 포인트가 개선되고, 인정 또는 개선 시나리오와 무관하게, 추후 분석을 위해 높은 신뢰도 결과는 상기 KV로 전달되고, 낮은 신뢰도 결과는 상기 AC로 전달되는 시스템이다.For RA, Core Logic processes the transformed language text and returns a result, if the result is of high confidence then the result is passed to Knowledge Validation (KV) for proper assimilation into CKR and if the result is of low confidence then the result is passed to AC to continue the cycle of self-criticism, Core Logic receives input from LC in the form of Pre-Criticized Decision without linguistic elements, the decision is passed to CTMP as the subjective opinion, the decision is also passed to Context Construction (CC) which provides raw facts as 'objective fact' input to CTMP using metadata from AC and potential evidence from human subject, along with CTMP having received two essential inputs, such information is processed to output the best attempt to arrive at an 'objective opinion', where the opinion is treated internally within RA as Post-Criticized Decision and both Pre-Criticized and Post-Criticized Decisions are compared in Decision Comparison (DC). The system is a system in which the appeal argument is either accepted as true or the counterpoint is improved to state why the appeal is invalid, and regardless of the accepted or improved scenario, the high confidence result is passed to the KV for further analysis, and the low confidence result is passed to the AC.

상기 CKR의 경우, 정보의 유닛들은 상기 유닛 지식 형식(UKF; Unit Knowledge Format)에 저장되고, 여기서 규식 구문 형식(RSF; Rule Syntax Format)은 참조 규칙을 추적하기 위한 구문 표준의 세트이며, 상기 RSF내의 규칙의 다수 유닛은 단일 객체 또는 동작을 기술하기 위해 활용될 수 있고, 소스(Source) 속성은 요구된 정보의 소스를 추적하는 복합적 데이터의 집합이고, UKF 클러스터(Cluster)는 관할구역에 따라 분리된 정보를 정의하기 위해 연결된 UKF 변형의 체인으로 구성되며, 여기서 UKF2는 상기 주요 타겟 정보를 포함하고, UKF1은 타임 스탬프 정보를 포함하고, 무한 후퇴를 피하기 위해 타임 스탬프 영역 자체를 생략하고, UKF3은 소스 속성 정보를 포함하고, 무한 후퇴를 피하기 위해 타임 스탬프 영역 자체를 생략하고; 여기서 모든 UKF2는 적어도 하나의 UKF1 또는 하나의 UKF3를 수반해야 하며, 그렇지 않으면 상기 클러스터(시퀀스)는 불완전한 것으로 간주되고, 그 안에 있는 상기 정보는 LOM 시스템 전반의 일반적 로직에서 처리될 수 없고, 상기 중앙 UKF2와 상기 중앙 UKF2에 대응하는 UKF1 및 UKF3 유닛 사이에는 연결된 브릿지로서 동작하는 UKF2 유닛들이 있을 수 있으며, 일련의 UKF 클러스터들은 파생된 주장을 형성하기 위해 KCA에 의해 처리될 수 있고, 지식 확증 분석(KCA; Knowledge Corroboration Analysis)는 UKF 클러스터 정보가 독선적 태도에 관한 확증적 증거를 위해 비교되는 곳이고, 상기 KCA의 처리가 완료된 후, 상기 CKR은 토픽에 관한 완결된 독선적 태도를 출력 할 수 있는 시스템이다.In the case of the above CKR, the units of information are stored in the Unit Knowledge Format (UKF), wherein the Rule Syntax Format (RSF) is a set of syntax standards for tracing reference rules, and multiple units of rules in the RSF can be utilized to describe a single object or operation, the Source attribute is a set of composite data for tracing the source of the required information, and the UKF Cluster is composed of a chain of linked UKF variants for defining information separated by jurisdiction, wherein UKF2 includes the main target information, UKF1 includes time stamp information, and omits the time stamp area itself to avoid infinite regression, and UKF3 includes source attribute information, and omits the time stamp area itself to avoid infinite regression; Here, every UKF2 must be accompanied by at least one UKF1 or one UKF3, otherwise the cluster (sequence) is considered incomplete and the information therein cannot be processed in the general logic of the LOM system as a whole, and there may be UKF2 units acting as bridges between the central UKF2 and the UKF1 and UKF3 units corresponding to the central UKF2, a series of UKF clusters can be processed by the KCA to form derived assertions, and Knowledge Corroboration Analysis (KCA) is where the UKF cluster information is compared for corroborative evidence about the assertions, and after the processing of the KCA is completed, the CKR is a system that can output a completed assertion about the topic.

ARM에 관한, 사용자 활동에 의해 표시되는 바와 같이, 사용자들이 LOM개념과 상호 작용할 때 질문/주장에 대한 대답/응답과 관련된 직접 뿐만 아니라 간접적으로 가져오고, 사용자 활동(User Activity)은 요청되었지만 이용할 수 없는 개념 목록에 표시된 바와 같이 CKR이 개념들에 관한 정보가 부족하거나 없고, 상기 개념을 최종적으로 산출할 것으로 기대되며, 개념 분류 및 우선순위(CSP; Concept Sorting & Prioritization)에서, 개념 정의들은 세 개의 독립적인 소스로부터 수신되고, 정보 요청의 상기 자원에 우선순위를 부여하기 위해 집계되며, 여기서 상기 정보 소스에 의해 제공된 상기 데이터는 요청된 개념 정의 및 관련된 메타 데이터가 유지되는지에 따라 정보 수집기(IA)에서 수신되고 파싱되며, 여기서 상기 정보는 상기 수신된 정보는 CKR로부터 선재 지식을 고려하여 비교 되어지고 구성되는 상호 참조 분석(CRA; Cross-Reference Analysis)으로 전송되는 시스템이다.As indicated by user activity regarding ARM, when users interact with LOM concepts, they directly as well as indirectly bring about answers/responses to questions/assertions, and the user activity is indicated by a list of concepts that are requested but unavailable, whereby CKR is expected to finally produce said concepts with insufficient or no information on them, and in Concept Sorting & Prioritization (CSP), concept definitions are received from three independent sources and aggregated to prioritize said resources for information requests, wherein the data provided by said information sources are received and parsed by an Information Aggregator (IA) depending on whether the requested concept definition and associated metadata are maintained, and wherein the information is transmitted to a Cross-Reference Analysis (CRA) where the received information is compared and organized by taking into account prior knowledge from CKR.

개인적인 지능 프로필(PIP; Personal Intelligence Profile)은 각각의 개인적 정보가 다수의 잠재적 엔드 포인트들 및 프런트 엔드들을 통해 저장되는 곳이고, 여기서 상기 정보는 CKR로부터 격리되지만 LOM 시스템 전반의 일반적 로직을 이용 가능하고, 인공 지능과 관련된 개인 정보 어플리케이션은 UKF 형식의 상기 개인 UKF 클러스터 풀에 암호화 및 저장되고, 정보 익명화 프로세스(IAP; Information Anonymization Process)에서 정보는 임의의 개인 식별 정보를 제거한 후에 CKR에 보충되며, 상호 참조 분석(CRA; Cross-Reference Analysis)에서 수신된 정보는 CKR로부터의 선재 지식을 고려하여 비교되고 구성되는 시스템이다.A Personal Intelligence Profile (PIP) is a system where each piece of personal information is stored across a number of potential endpoints and front ends, where the information is isolated from the CKR but has general logic across the LOM system available, where personal information applications related to artificial intelligence are encrypted and stored in the personal UKF cluster pool in UKF format, where information is supplemented to the CKR after removing any personally identifiable information in the Information Anonymization Process (IAP), and where the received information in the Cross-Reference Analysis (CRA) is compared and organized in consideration of prior knowledge from the CKR.

생활 관리 및 자동화(LAA; Life Administration & Automation)는 인터넷 기반 장치 및 서비스를 응집력있는 플랫폼에 연결하며, 적극적 의사 결정(ADM; Active Decision Making)은 자금 조달 규칙 및 관리(FARM ; Fund Appropriations Rules & Management)에 따라 프런트 엔드 서비스, 백 엔드 서비스, IoT 장치, 지출 규칙 및 사용 가능한 금액을 고려하여 가용성 및 기능을 고려하고; FARM은 ADM에 활동의 관할권을 알리기 위해 모듈에 기준, 한계 및 범위를 정의하는 인간의 입력을 받고, 암호화된 화폐 자금이 디지털 지갑에 지불되고, 상기 IoT 상호 작용 모듈(IIM; IoT Interaction Module)은 어떤 IoT 장치가 이용 가능한지의 데이터 베이스를 유지하고, IoT 이용 가능한 장치가 LAA에 정보를 전송할 때 데이터 피드들(Data Feeds)은 표시하는 시스템이다.Life Administration & Automation (LAA) connects internet-based devices and services into a cohesive platform, Active Decision Making (ADM) considers availability and functionality considering front-end services, back-end services, IoT devices, spending rules and available funds according to Fund Appropriations Rules & Management (FARM); FARM receives human input defining criteria, limits and scope to notify ADM of jurisdiction of activity, encrypted currency funds are paid into a digital wallet, IoT Interaction Module (IIM) is a system that maintains a database of which IoT devices are available and Data Feeds display when IoT-enabled devices transmit information to LAA.

비윤리 및/또는 불법 자료를 확인하기 위해 사용자의 개인적 식별 가능 데이터 요청을 모니터링하는 행동 모니터링(BM; Behavior Monitoring)을 더 포함하고, 메타 데이터 집계(MDA; Metadata Aggregation)에서 데이터와 관련하여 사용자 관련 데이터는 상기 사용자의 디지털 신원(identity)이 설정될 수 있도록 외부 서비스로부터 집계되고, 상기 정보는 유도/추론 및 최종적으로 PCD로 전달되며, PCD는 정교한 분석이 상기 MNSP로부터 보강 요소들과 함께 수행되는 곳이고, PIP로 예정된 상기 인증된 사용자의 모든 정보는 정보 추적(IT; Information Tracking)을 거쳐 상기 행동 블랙리스트(Behavior Blacklist)와 대조되며, 프리 크라임 검출(PCD; Pre-Crime Detection)에서 추론 및 유도 정보를 병합하여 프리 크라임 결론을 분석하고, 여기서 PCD는 유도 및 추론에 의해 만들어진 태도를 검증하기 위한 상기 행동 블랙리스트를 직접 참조하는 CTMP를 사용하고, 상기 블랙 리스트 유지관리 기관(BMA; Blacklist Maintenance Authority)은 MNSP의 클라우드 서비스 프레임 워크 내에서 작동하는 시스템이다.Further comprising Behavior Monitoring (BM) for monitoring user's personally identifiable data requests to check for unethical and/or illegal material, wherein in Metadata Aggregation (MDA), user-related data is aggregated from external services so that a digital identity of said user can be established, said information is inductively/inferred and finally passed to PCD, where sophisticated analysis is performed with reinforcement elements from said MNSP, all information of said authenticated user destined for PIP goes through Information Tracking (IT) and is compared against said Behavior Blacklist, wherein in Pre-Crime Detection (PCD), inference and induction information are merged to analyze pre-crime conclusions, wherein PCD uses CTMP directly referencing said Behavior Blacklist to verify attitudes created by induction and inference, and wherein said Blacklist Maintenance Authority (BMA) is a system operating within the cloud service framework of MNSP.

상기 LOM은 개인의 라이프에 대한 개인화된 포트폴리오를 관리하도록 구성되고, 여기서 상기 LOM은 LOM의 내부 심의 프로세스(LOM's Internal Deliberation Process)를 통해 결론을 이끌어내는 초기 질문을 수신하며, LOM이 데이터를 수신 및 제어할 수 있는 인터넷 가능 장치에 연결하는 LAA 모듈에 연결하도록 연결되고, 맥락화에서 상기 LOM은 논증을 구성 시 누락 된 링크를 추론하고, 상기 LOM은 원래 주장으로 제기된 딜레마를 해결하기 위해 먼저 상황에 대한 특정 변수를 알거나 가정해야 한다는 논리를 가진 해독기가 있는 시스템이다.Said LOM is configured to manage a personalized portfolio of an individual's life, wherein said LOM receives an initial question that leads to a conclusion through LOM's Internal Deliberation Process, and is connected to connect to a LAA module that connects to an internet-enabled device that can receive and control data, wherein in contextualization, said LOM infers missing links in constructing an argument, and a decoder having a logic that said LOM must first know or assume certain variables about the situation in order to resolve the dilemma posed by the original claim.

상기 컴퓨터 구현 시스템은 선형 원자 퀀텀 정보 전달(LAQIT; Linear Atomic Quantum Information Transfer)이며,The above computer implementation system is a Linear Atomic Quantum Information Transfer (LAQIT),

a) 논리적으로 구조화된 구문 내에서 동일한 일관된 색상 시퀀스를 재귀적으로 반복하는 것; 및a) recursively repeating the same consistent color sequence within a logically structured construct; and

b) 영어 알파벳으로 번역하기 위해 재귀적으로 상기 시퀀스를 사용하는 것;b) using the above sequence recursively to translate into the English alphabet;

을 포함하고,Including,

역기서 알파벳의 '기본' 레이어를 구성 할 때, 색상 시퀀스는 색상 채널의 단축 및 불평등 가중치와 함께 사용되며 색상 채널 내 구문 정의를 위한 남은 공간은 향후 사용 및 확장을 위해 남겨두고;When constructing the 'base' layer of the alphabet in reverse order, color sequences are used with shortening and unequal weighting of the color channels, leaving the remaining space for syntax definition within the color channels for future use and expansion;

여기서 복잡한 알고리즘이 그의 로그 이벤트 및 상태 리포트들을 상기 LAQIT로 보고하고, 상태/로그 리포트들은 자동 생성되며, 여기서 상태/로그 리포트들은 전송 가능한 텍스트 기반 LAQIT 구문으로 변환되고, 구문적으로 안전하지 않은 정보가 디지털 방식으로 전송되며, 상기 전송 가능한 텍스트 기반 구문은 고도로 판독 가능한 LAQIT 시각적 구문(선형 모드)로 변환되고, 키(Key)는 인간의 기억을 위해 최적화되며 상대적으로 짧은 모양의 시퀀스에 기초되고;Here a complex algorithm reports its log events and status reports to said LAQIT, where status/log reports are automatically generated, where status/log reports are converted into a transportable text-based LAQIT syntax, where syntactically unsafe information is digitally transmitted, where said transportable text-based syntax is converted into a highly readable LAQIT visual syntax (linear mode), where keys are optimized for human memory and based on relatively short sequences of shapes;

상기 위치상으로 안전하지 않은 텍스트는 수신인에게 제출하기 위해 발신인이 입력하고, 텍스트가 전송 가능한 암호화된 텍스트 기반 LAQIT 구문으로 변환되며, 구문적으로 안전한 정보가 디지털 방식으로 전송되어 데이터가 시각적으로 암호화된 LAQIT 구문으로 변환되고;The above positionally insecure text is entered by the sender for submission to the recipient, where the text is converted into a transmittable encrypted text-based LAQIT syntax, and the syntactically secure information is transmitted digitally, where the data is converted into a visually encrypted LAQIT syntax;

여기서 증가하는 인식 효과(IRE; Incremental Recognition Effect)는 정보 전달 채널이며, 전부 전달되기 전에 정보 유닛의 상기 전체 형식을 인식하고, 여기서 예측 지수의 상기 효과는 단어와 단어 사이의 상기 전환을 표시함으로써 통합되고, 여기서 사전 인식 효과(PRE; Proximal Recognition Effect)는 정보 전달 채널로, 정보가 손상. 혼합 또는 변경되는 동안 정보 유닛의 상기 전체 형식을 인식하는 시스템이다.The Incremental Recognition Effect (IRE) here is an information transmission channel, which recognizes the full form of the information unit before it is fully transmitted, the effect of the prediction index here is integrated by indicating the transition between words, and the Proximal Recognition Effect (PRE) here is an information transmission channel, which is a system that recognizes the full form of the information unit while the information is damaged, mixed or changed.

LAQIT의 선형 모드에서, 블록은 선형 모드의 '기본 렌더링'버전을 표시하고, 포인트는 암호화의 부재를 표시하며, 단어 분리기(Word Separator)에서 상기 도형의 상기 색은 상기 단어에 따른 상기 문자를 나타내며 상기 단어와 그 다음 단어 사이의 분리 역할을 하고, 단일 뷰잉 존(Single Viewing Zone)은 더 큰 문자를 갖는 더 작은 뷰잉 구역을 통합하고 따라서 픽셀 당 정보가 더 적으며, 더블 뷰잉 존(Double Viewing Zone)에서는 픽셀 당 더 많은 활성화 문자가 있고, 음영 커버(Shade Cover)는 관찰자의 주요 초점이 뷰잉 존(viewing zone) 상에 있도록 들어오고 나가는 문자를 둔하게 만드는 시스템이다.In LAQIT's Linear Mode, blocks represent the 'default rendering' version of the linear mode, points represent the absence of encryption, in the Word Separator the color of the shape represents the character according to the word and acts as a separator between the word and the next word, Single Viewing Zone integrates a smaller viewing area with larger characters and therefore less information per pixel, Double Viewing Zone has more active characters per pixel, and Shade Cover is a system to dull incoming and outgoing characters so that the viewer's main focus is on the viewing zone.

암호화 레벨의 넓은 범위를 수용할 수 있는 원자 모드에서, 상기 기본 주요 문자 참조는 어떤 문자가 정의되는지에 대한 일반 사항을 명시 할 것이며, 상기 키커(Kicker)는 상기 베이스와 동일한 색 범위를 갖고 존재하며, 상기 특정 문자를 정확히 정의하며, 판독 방향(Reading Direction)으로 상기 정보 전달 판독은 상기 오비탈 링의 상부 사각형에서 시작하고, 일단 오비탈 링이 완료되면, 다음 순차 오비탈 링의 상부 사각형으로부터 판독이 계속되고, 여기서 상기 엔트리/출구 포털은 문자(기본)의 생성 및 파괴의 상기 포인트들이며, 관련 오비탈에 속하는 새로운 문자가 상기 포털로부터 나오고 시계 방향으로 그 위치로 내려가며, 상기 원자 핵(Atomic Nucleus)은 그 다음 단어의 문자를 정의하고;In an atomic mode that can accommodate a wide range of encryption levels, the base primary character reference will generally specify what character is defined, the Kicker will exist with the same color range as the base and precisely define the particular character, and in the Reading Direction the information transfer reading starts from the upper square of the orbital ring and once an orbital ring is completed, reading continues from the upper square of the next sequential orbital ring, wherein the entry/exit portals are the points of creation and destruction of characters (bases), a new character belonging to the associated orbital emerges from the portal and clockwise moves down that position, and the Atomic Nucleus defines the character of the next word;

단어 네비게이션(Word Navigation)에서, 각각의 블록은 화면의 좌측에 전체 단어(또는 분자 모드의 다중 단어)를 나타내며, 단어가 표시 될 때, 각각의 블록은 오른쪽의 바깥쪽으로 이동하고, 단어가 완료되면 블록 후퇴되고, 상기 네비게이션 블록의 상기 컬러/모양은 상기 단어의 상기 첫 번째 문자를 바탕으로 동일한 컬러/모양이고; 문장 네비게이션에서, 각각의 블록은 단어들의 클러스터를 나타내고, 클러스터는 단어 네비게이션 평면에 맞출 수 있는 단어의 최대량이며, 원자 상태 생성(Atomic State Creation)은 증가하는 인식 효과(Incremental Recognition Effect, IRE)를 유도하는 과정이며, 상기 과정으로 상기 베이스들(Bases)이 엔트리/출구 포털에서 나오고, 키커들이 숨겨지며, 시계 방향으로 움직여서 위치를 파악하고;In Word Navigation, each block represents a whole word (or multiple words in molecular mode) on the left side of the screen, and when a word is displayed, each block moves outward to the right, and when the word is completed, the block retreats, and the color/shape of the navigation block is the same color/shape based on the first letter of the word; In Sentence Navigation, each block represents a cluster of words, and a cluster is a maximum amount of words that can fit into the word navigation plane, and Atomic State Creation is a process that induces an Incremental Recognition Effect (IRE), by which the Bases emerge from entry/exit portals, the Kickers are hidden, and move clockwise to determine their positions;

여기서 원자 상태 확장(Atomic State Expansion)은 상기 근위 인식 효과 (PRE; Proximal Recognition Effect)를 유도하는 과정이고, 일단 상기 베이스들(Bases)이 자신의 위치에 도달하면, 정보 상태 프리젠테이션의 '확장'시퀀스에서 바깥쪽으로 이동하여 정보 상태의 특정 정의를 나타낼 수있는 키커를 나타내고; 원자 상태 파괴(Atomic State Destruction)는 베이스가 들어간 증가하는 인식 효과(Incremental Recognition Effect, IRE)를 유도하는 과정으로, 베이스가 키커들을 다시 덮기 위해 수축(확장 시퀀스의 반전)되고, 여기서 상기 엔트리/출구 포털에 도달하기 위해 시계 방향으로 내려가는 시스템이다.Here, Atomic State Expansion is the process of inducing the Proximal Recognition Effect (PRE), wherein once the Bases have reached their positions, they move outwards in the 'expanding' sequence of information state presentations to reveal kickers that can represent specific definitions of the information state; Atomic State Destruction is the process of inducing the Incremental Recognition Effect (IRE), wherein the Bases contract (reverse the expansion sequence) to re-cover the Kickers, and here the system moves clockwise down to reach the entry/exit portal.

모양 난독화(Shape Obfuscation)에서, 표준 사각형은 5개의 시각적으로 구별되는 모양으로 대체되고, 구문 내에서의 모양의 변화는 위조(가짜) 문자가 원자 프로 파일의 전략 포인트에 삽입되도록 하고, 상기 위조 문자는 상기 메시지의 상기 진짜 및 의도된 의미를 혼란스럽게 하며, 여기서 문자가 진짜인지 위조인지를 해독하는 단계는 안전하고 일시적으로 전송된 해독 키를 통해 행해지고, 리디렉션 본드(Redirection Bonds)에서 본드가 두 문자를 연결하고 읽기의 흐름을 변경하며,In Shape Obfuscation, standard squares are replaced by five visually distinct shapes, and the shape changes within the syntax cause forged (fake) characters to be inserted at strategic points in the atomic profile, which obfuscate the real and intended meaning of the message, and the step of deciphering whether the characters are real or fake is done via a secure and temporarily transmitted decryption key, and in Redirection Bonds, a bond connects two characters and changes the flow of reading,

전형적인 시계 방향의 읽기 패턴으로 시작하는 동안 합법적/ 비 위조 문자에 대해 출발(시작) 및 도착(끝)하는 본드를 접하는 것은 도착 문자에서 다시 읽기 패턴이 전환되고, 방사성 원소들(Radioactive Elements)에서 어떤 요소들은 문자가 위조인지 아닌지에 대한 상기 평가를 역행할 수 있는 '작동' 할 수 있으며, 여기서 모양은 암호화에 사용할 수 있는 상기 모양을 보여주며, 중심 요소는 단어 바로 다음에 오는 문자를 정의하는 상기 오비탈의 중심 요소를 나타내는 시스템이다.Starting with a typical clockwise reading pattern, encountering the bonds for the legit/non-forged letters, the reading pattern switches again at the arrival letter, and some elements in the Radioactive Elements can 'act' to reverse the above evaluation of whether the letter is forged or not, where the shape shows the shape that can be used for encryption, and the central element is a system that represents the central element of the orbital that defines the letter that immediately follows the word.

상기 리디렉션 본즈에서 상기 본드는 위조일 수 도 있고 아닐 수 도 있는In the above redirection bonds, the bond may or may not be counterfeit.

'출발하는'문자에서 시작하고'도착하는'문자로 끝나며, 위조가 없는 경우, 상기 본드는 판독 방향 및 위치를 변경하며, 하나 또는 모두가 위조라면, 전체 본드는 무시되어야 하고, 그렇지 않으면 상기 메시지가 부정확하게 암호 해독 될 수 있으며, 본드 키 정의(Bond Key Definition)에서, 정보 상태를 판독할 때 보드를 준수해야 하는 경우 암호화 키에 구체적으로 정의되었는지 여부에 따라 달라지는 시스템이다.Starting with a 'from' character and ending with an 'to' character, if there is no tampering, the bond changes the reading direction and position, if one or both are tampered, the entire bond must be ignored, otherwise the message may be decrypted incorrectly, and in the Bond Key Definition, it is a system in which the state of the information must be read in accordance with the board, depending on whether it is specifically defined in the encryption key.

단일 클러스터에서, 두 이웃은 비-방사성이므로, 클러스터의 범위가 정의되고, 상기 키가 이중 클러스터들을 유효하게 지정하기 때문에 처리되기 위한 상기 요소는 우선 방사성이 아닌 경우이고, 이중 클러스터에서 키 정의는 이중 클러스터를 활성으로 정의하므로 다른 모든 크기의 클러스터는 상기 메시지를 암호 해독하는 동안 휴면 상태로 간주되며, 잘못된 해석(Incorrect Interpretation)은 해석자가 역순(긍정 오류)으로 상기 더블 클러스터를 처리하지 않는 방법을 보여주는 시스템이다.In a single cluster, since the two neighbors are non-radiative, the range of the cluster is defined, and since the key validly specifies double clusters, the element to be processed is first non-radiative, and in a double cluster, the key definition defines the double cluster as active, so all other sized clusters are considered dormant while decrypting the message, and Incorrect Interpretation is a system that shows how the interpreter does not process the double cluster in reverse order (false positive).

암호화 및 스트리밍을 가능하게하는 분자 모드에서, 비밀의 사전 공격 저항(Covert Dictionary Attack Resistance)으로, 상기 메시지의 잘못된 암호 해독은 '붉은 청어'대체 메시지로 이끌고, 분자 당 다수의 활성 단어(Multiple Active Words)에서, 상기 단어는 분자 절차 동안 병렬로 제시되어, 일관된 전환 속도로 표면적 비율 당 정보를 증가 시키고, 바이너리 및 스트리밍 모드는 스트리밍 모드를 나타내지만, 전형적인 원자 구성에서 판독 모드는 바이너리이고, 바이너리 모드 (Binary Mode)는 중심 요소가 단어 뒤에 오는 문자를 정의한다는 것을 나타내며, 여기서 분자 모드는 또한 바이너리이고; 암호화가 가능한 경우를 제외하고는 스트리밍 모드를 고수하고, 여기서 스트리밍 모드가 특수 문자의 오비탈을 참고하는 시스템이다.In the molecular mode enabling encryption and streaming, Covert Dictionary Attack Resistance, incorrect decryption of the message leads to a 'red herring' replacement message, In Multiple Active Words per molecule, the words are presented in parallel during the molecular process, increasing the information per surface area ratio with a consistent switching rate, The binary and streaming modes represent the streaming mode, but in a typical atomic configuration the readout mode is binary, The binary mode represents that the central element defines the letter following the word, where the molecular mode is also binary; The streaming mode is adhered to except when encryption is possible, where the streaming mode is a system referencing the orbitals of special characters.

상기 컴퓨터 구현 시스템은 통합 노드를 부착한 베이스 연결 조화를 갖는 범용 BCHAIN 모든 연결들(UBEC; Universal BCHAIN Everything Connections) 시스템이고,The above computer implementation system is a Universal BCHAIN Everything Connections (UBEC) system having a base connection coordination with an integrated node attached,

a) 하드웨어 인터페이스와 상호작용한 후, 다른 BCHAIN 노드들과 통신하도록 하는 BCHAIN 노드 기본 알고리즘인, 통신 게이트웨이(CG; Communications Gateway);a) Communications Gateway (CG), the basic algorithm of a BCHAIN node that allows it to communicate with other BCHAIN nodes after interacting with the hardware interface;

b) 원격 노드 행동 패턴을 해석하는, 노드 통계 조사(NSS; Node Statistical Survey);b) Node Statistical Survey (NSS), which interprets remote node behavior patterns;

c) 노드 이웃이 인식 노드의 주변을 벗어날 가능성을 추적하는, 노드 이스케이프 인덱스(Node Escape Index);c) Node Escape Index, which tracks the probability that a node's neighbors will leave the vicinity of the recognized node;

d) 인식 노드의 탐지 범위에서 노드의 양을 추적하는, 노드 포화 인덱스(Node Saturation Index);d) Node Saturation Index, which tracks the amount of nodes in the detection range of the recognition node;

e) 인식 노드에 의해 해석되는 노드 서비스의 품질을 추적하고는 노드 일관성 인덱스(Node Consistency Index)로, 높은 노드 일관성 인덱스는 주변 이웃 노드가 더 높은 가용성 시간 및 성능 일관성을 갖는 경향이 있음을 나타내고, 이중 용도를 사용하는 노드는 일관성 지수가 낮아지는 경향이 있으며, BCHAIN 네트워크에 전용인 노드들은 더 높은 값을 나타내고; 및e) Tracking the quality of node service interpreted by the awareness node as a Node Consistency Index, where a high Node Consistency Index indicates that the surrounding neighboring nodes tend to have higher availability times and performance consistency, nodes that use dual purposes tend to have lower consistency indices, and nodes dedicated to the BCHAIN network show higher values; and

f) 인식 노드에 의해 해석되는 것으로, 다른 노드에서 중첩 노드들의 양을 추적하는, 노드 중복 인덱스(Node Overlap Index);f) Node Overlap Index, which is interpreted by the recognition node and tracks the amount of nodes that overlap with other nodes;

를 더 포함하는 시스템이다.It is a system that includes more.

시스템에 있어서,In the system,

a) 상기 노드에 의해서 이전에 등록된 앱 체인 또는 마이크로 체인으르 포함하는 사용자 정의 체인과 연결하는, 사용자 정의 체인 인식 모듈(CRM; Customchain Recognition Module)로, 상기 CRM은 상기 메타 체인 또는 마이크로 체인의 메타체인 에뮬레이터의 앱 체인 에서 업데이트가 탐지되면, 상기 나머지 BCHAIN 프로토콜를 알리고;a) A Customchain Recognition Module (CRM) that connects to a custom chain including an app chain or micro chain previously registered by said node, wherein said CRM notifies the rest of the BCHAIN protocol when an update is detected in the app chain of the metachain emulator of said metachain or microchain;

b) 유효한 CCR을 수신한 후에 상기 요청의 실행을 위해 상기 관련된 CCF를 전송하는, 컨텐츠 클레임 제공(CCD; Content Claim Delivery);b) Content Claim Delivery (CCD), which transmits the relevant CCF for execution of the request after receiving a valid CCR;

c) 상기 전략 생성 모듈(Strategy Creation Module)을 관리하고, 창의성 모듈을 사용하여 다양한 전략 선택 알고리즘(OSSA; Optimized Strategy Selection Algorithm)을 통해 시스템이 선호하는 복잡한 전략을 혼합하여 동적으로 생성하는 동적 전략 적응(Dynamic Strategy Adaptation)으로, 여기서 새로운 전략들은 혼돈 영역 해석에서 제공한 입력에 따라 달라지고;c) Dynamic Strategy Adaptation, which manages the Strategy Creation Module and dynamically generates complex strategies preferred by the system by mixing them through various strategy selection algorithms (OSSA; Optimized Strategy Selection Algorithm) using the creativity module, wherein new strategies vary depending on the input provided in the chaos domain analysis;

d) UBEC 플랫폼 인터페이스(UPI; UBEC Platform Interface) 하에서 그래픽 사용자 인터페이스(GUI; Graphical User Interface)에 의해 관리되는 다양한 경제적 특성을 가진, 암호화 디지털 경제 교류(CDEE; Cryptographic Digital Economic Exchange);로 여기서 속성 A에서 노드 리소스는 오직 사용자가 소비하는 것과 일치하도록 소비되며, 여기서 속성 B는 이익 마진이 미리 결정된 값보다 큰 한 최대한 많은 리소스를 소비하며, 속성 C는 거래 통화를 통해 작업 유닛에 대해 비용을 지불하고, 속성 D는 노드 자원이 컨텐츠 또는 통화 보상의 소비 여부에 관계없이 가능한 한 많은 비용을 지출하는 것을 제한하지 않고 지출되고;d) A Cryptographic Digital Economic Exchange (CDEE) with various economic characteristics managed by a Graphical User Interface (GUI) under the UBEC Platform Interface (UPI); where in property A, node resources are consumed only to match what the user consumes, where property B consumes as many resources as possible as long as the profit margin is greater than a predetermined value, property C pays for work units through transaction currency, and property D consumes node resources without limiting the consumption of as much cost as possible regardless of whether the content or currency rewards are consumed;

e) 작업 완료 신용과 관련하여, 이 노드의 현재 잉여 또는 적자를 결정하기 위해 메타 체인의 인프라 경제 섹션을 참조하는, 현재 작업 상태 해석(CWSI; Current Work Status Interpretation);e) Current Work Status Interpretation (CWSI), which refers to the Infrastructure Economy section of the metachain to determine the current surplus or deficit of this node, with respect to work completion credit;

f) 현재 더 많은 작업이 수행되어야 하는지를 평가하기 위해, 상기 현재 작업 잉여/적자와 함께 선택된 경제적 속성이 고려되는, 경제적 측면을 고려한 작업 시행(ECWI; Economically Considered Work Imposition); 및f) Economically Considered Work Imposition (ECWI), where selected economic attributes are taken into account along with the current work surplus/deficit to assess whether more work should be done; and

g) 코드 목적을 이해하여 알고리즘 소스를 향상시키는 LIZARD로 구성된 서로 다른 알고리즘 간의 3중 관계로서, 수 세대에 걸친 가상 프로그램 반복을 모방할 수 있는 I2GE 및 분산형 방식으로 복잡한 데이터 집약적 프로그램을 시행할 수 있는 차동적으로 연결된 노드의 광대한 네트워크인 BCHAIN 네트워크는를 포함하는, 공생적 재귀 지능 향상(SRIA; Symbiotic Recursive Intelligence Advancement);을 더 포함하는 시스템이다.g) a system further comprising Symbiotic Recursive Intelligence Advancement (SRIA); which comprises a triple relationship between different algorithms, LIZARD, which improves the algorithmic source by understanding the code purpose, I2GE, which can emulate virtual program iterations over generations, and the BCHAIN network, which is a vast network of differentially connected nodes that can execute complex data-intensive programs in a distributed manner.

상기한 바와 같은 본 발명의 컴퓨터 보안 시스템은 LIZARD는 코드의 목적을 이해함으로써 알고리즘의 소스 코드를 개선할 수 있고, I2GE는 가상 프로그램 반복 세대를 에뮬레이션 할 수 있으므로 가장 강력한 프로그램 버전을 선택할 있고, BCHAIN 네트워크는 복잡한 데이터가 많은 프로그램을 분산된 방식으로 실행할 수 있는 효과가 있다.As described above, the computer security system of the present invention has the effect that LIZARD can improve the source code of the algorithm by understanding the purpose of the code, I2GE can emulate virtual program iteration generations and thus select the most powerful program version, and the BCHAIN network can execute programs with a lot of complex data in a distributed manner.

본 발명은 다음의 도면과 관련하여 상세한 설명을 참조함으로써 더욱 완전히 이해 될 것이다.
도 1 내지 도 26은 CIPR/CTIS로 알려진 클라우드 및 계층화된 정보 보안을 통한 비판적 인프라 보호 및 보상을 보여주는 도면이다. 보다 상세하게,
도 1과 도 2는 보안 해석의 다수 관점들에 대한 정의들을 분석을 위한 방법론으로 제시하기 위한 방법을 보여주는 도면이다.
도 3은 보안 EI2(엑스트라넷, 인트라넷, 인터넷) 네트워킹을 위한 클라우드 기반 관리형 암호화 보안 서비스 아키텍쳐를 보여주는 도면이다.
도 4 내지 도 8은 관리형 네트워크 및 보안 서비스 제공자(MNSP)의 개요를 나타내는 도면이다.
도 9는 LIZARD 클라우드 기반 암호화 보안에 관한 실시간 보안 처리를 나타내는 도면이다.
도 10은 에너지 시스템에서 CTIS 사례를 통한 CIPR을 보여주는 도면이다.
도 11은 단계 1 - 초기의 시스템 칩입을 도시하는 도면이다.
도 12는 단계 2 - 초기의 트로이 목마 배치를 도시하는 도면이다.
도 13은 단계 3 - 고급 실행 멀웨어의 다운로드를 도시하는 도면이다.
도 14는 단계 4 - 침입 방어/예방 시스템의 손상을 도시하는 도면이다.
도 15는 해커가 원하는 행동 및 실제 보안 응답을 도시하는 도면이다.
도 16은 스케줄링된 내부 인증 프로토콜 액세스(SIAPA)를 보여주는 도면이다.
도 17은 루트 레벨 액세스 및 기준 레벨 액세스를 보여주는 도면이다.
도 18은 관리 검토를 보여주는 도면이다.
도 19는 반복적인 인텔리전스 성장/ 인텔리전스 발전(I2GE)을 도시하는 도면이다.
도 20은 인프라 시스템을 보여주는 도면이다.
도 21은 범죄 시스템, 인프라 시스템 및 공공의 인프라를 보여주는 도면이다.
도 22 내지 도 23은 외부 코드 재작성이 잠재적으로 탐지되지 않는 악의적인 공격을 완화하기 위해 외부 코드를 처음부터 구문적으로 재생산하는 방법을 나타내는 도면이다.
도 24 내지 도 25는 재귀적 디버깅이 코드 세그먼트들을 어떻게 루프하는지 나타내는 도면이다.
도 26은 니드 맵 매칭의 내부 동작을 도시하는 도면이다.
도 27 내지 도 42는 사이버 공간에서 비밀 동작을 통해 기계 비밀 정보(MACINT) 및 응징을 나타내는 도면들이다. 보다 상세하게,
도 27은 지능화된 정보 관리, 뷰잉 및 제어를 나타내는 도면이다.
도 28은 행동 분석에 의한 동작을 나타내는 도면이다.
도 29 및 도 30은 범죄 시스템 및 범죄 시스템에 대한 응징을 나타내는 도면이다.
도 31 및 도 32는 MACINT의 흐름을 나타내는 도면이다.
도 33은 MACINT 비밀 동작 개요 및 범인이 어떻게 기업 시스템을 이용하는지를 나타내는 도면이다.
도 34는 빅 데이터를 이용한 장기/ 딥 스캔의 세부 사항을 나타내는 도면이다.
도 35는 임의의 컴퓨터가 신뢰 플랫폼에서 어떻게 검색되는지를 나타내는 도면이다.
도 36은 신뢰 플랫폼으로부터 알려진 이중 또는 삼중의 에이전트가 포렌식 조사를 더 진행하기 위해 어떻게 참여해야 하는지를 나타내는 도면이다.
도 37은 신뢰 플랫폼이 ISP APIs를 사용하는 방법을 나타내는 도면이다.
도 38은 소프트웨어 및 하드웨어 공급업체가 설정된 백도어를 사용하기 위해 제공하는 보안 API를 활용하기 위해 신뢰 플랫폼을 사용하는 방법을 보여 주는 도면이다.
도 39 내지 도 41은 임의 및 범죄의 컴퓨터들에 사용자 정의 공격이 적용되는 방법을 나타내는 도면이다.
도 42는 범죄 시스템을 모니터링 하기 위한 신뢰 플랫폼에 장기 우선 순위 플래그가 어떻게 푸쉬되는지 보여주는 도면이다.
도 43 내지 도 68은 논리적으로 추론된 제로-데이터 베이스 선험적 실시간 방어(LIZARD)를 도시하는 도면이다. 보다 상세하게,
도 43 및 도 44는 LIZARD의 의존 구조를 보여주는 도면이다.
도 45는 LIZARD의 개요를 보여주는 도면이다.
도 46은 LIZARD에 관한 주요 알고리즘 함수들의 개요를 도시하는 도면이다.
도 47은 정적 코어(SC)의 내부 동작을 도시하는 도면이다.
도 48은 내부 코어가 시스템의 필수적인 코어 함수들을 어떻게 가지고 있는지를 도시하는 도면이다.
도 49는 동적 쉘(DS)의 내부 동작을 도시하는 도면이다.
도 50은 동적 쉘상의 모듈들을 지능적으로 수정, 생성 및 파괴하는 반복 모듈을 도시하는 도면이다.
도 51은 보안 개선을 위한 반복 코드의 주된 논리인 반복 코어 (Iteration Core)를 나타내는 도면이다.
도 52 내지 도 57은 차동 수정 알고리즘 (DMA)의 논리 프로세스를 나타내는 도면이다.
도 58은 가상 난독화의 개요를 나타내는 도면이다.
도 59 내지 도 61은 가상 난독화의 모니터링 및 응답 측면을 나타내는 도면이다.
도 62 및 도 63은 의심되는 개체로부터 업로드되고 의심되는 개체로 다운로드 된 모든 정보를 추적하는 데이터 회수 추적을 나타내는 도면이다.
도 64 및 도 65는 데이터 회수 트리거의 내부 동작을 도시하는 도면이다.
도 66은 매우 민감한 데이터를 필터링하고, 실제 데이터를 모의 데이터와 혼합하는 데이터 선택을 나타내는 도면이다.
도 67 및 도 68은 행동 분석의 내부 동작을 나태나는 도면이다.
도 69 내지 도 120은 비판적 사고의 기억과 인식(CTMP)을 나타내는 도면이다. 보다 상세하게,
도 69는 CTMP의 주요 논리를 나타내는 도면이다.
도 70은 인식의 관점을 나타내는 도면이다.
도 70 내지 도 73은 CTMP의 의존 구조를 나타내는 도면이다.
도 74는 CTMP에서 지능형 정보를 처리하기 위한 최종 논리를 나타내는 도면이다.
도 75는 CTMP를 대표하는 단일 터미널 출력으로의 직관적/ 지각적 및 사고적/ 논리적 동화의 두 가지 주요 입력을 도시하는 도면이다.
도 76은 원래의 선택된 패턴 매칭 알고리즘(SPMA)에서 발생하는 지능적 사고의 범위를 도시하는 도면이다.
도 77은 인식들 및 규칙들을 통해 CTMP로 수행된 비판적 사고에 대해 병행되는 종래의 SPMA를 나타내는 도면이다.
도 78은 종래의 현재 규칙들과 대조하여 정정 규칙들이 어떻게 생성되는지를 나타내는 도면이다.
도 79 및 도 80은 인식 매칭(PM) 모듈을 도시하는 도면이다.
도 81 내지 도 85는 규칙 구문 파생/ 생성을 나타내는 도면이다.
도 86 및 도 87은 규칙 구문 형식 분리(RSFS) 모듈의 동작을 나타내는 도면이다.
도 88은 규칙 실행 파서(RFP)의 동작을 나타내는 도면이다.
도 89 및 도 90은 실행 디버거를 보여주는 도면이다.
도 91은 규칙 확장을 보여주는 도면이다.
도 92 및 도 93은 순차적 메모리 구성을 보여주는 도면이다.
도 94는 비 순차적 메모리 구성을 보여주는 도면이다.
도 95 내지 도 97은 메모리 인식(MR)을 보여주는 도면이다.
도 98 및 도 99는 영역 해석 논리(FIL)를 보여주는 도면이다.
도 100 및 도 101은 자동 인식 발견 메커니즘(APDM)을 보여주는 도면이다.
도 102는 원시 인식 생산(RP2)를 보여주는 도면이다.
도 103은 비교 가능한 가변 형식 생성기(CVFG)를 보여주는 도면이다.
도 104는 노드 비교 알고리즘(NCA)를 나타내는 도면이다.
도 105 및 도 106은 시스템 메타 데이터 분리(SMS)를 보여주는 도면이다.
도 107 및 도 108은 메타 데이터 분류 모듈(MCM)을 보여주는 도면이다.
도 109는 메트릭 처리(MP)를 보여주는 도면이다.
도 110 및 도 111은 인식 추론의 내부 설계를 보여주는 도면이다.
도 112 내지 도 115는 인식 관찰자 에뮬레이터(POE)를 보여주는 도면이다.
도 116 및 도 117은 함축적 파생(ID)를 보여주는 도면이다.
도 118 내지 도 120은 자기 비판적 지식 밀도(SCKD)를 보여주는 도면이다.
도 121 내지 도 165는 어휘의 객관성 마이닝(LOM)을 보여주는 도면이다. 보다 상세하게,
도 121은 어휘의 객관성 마이닝(LOM)을 위한 주요 논리를 보여주는 도면이다.
도 122 내지 도 124는 관리형 인공 지능의 서비스 공급자(MAISP)를 보여주는 도면이다.
도 125 내지 도 128은 LOM의 의존 구조를 보여주는 도면이다.
도 129 및 도 130은 초기의 쿼리 추론(IQR)의 내부 논리를 보여주는 도면이다.
도 131은 조사 설명(SC)를 보여주는 도면이다.
도 132는 주장 구성(AC)를 보여주는 도면이다.
도 133 및 도 134는 계층적 매핑(HM)이 어떻게 작동하는지에 대한 내부 세부 사항을 보여주는 도면이다.
도 135 및 도 136은 합리적 호소(RA)의 내부 세부 사항을 보여주는 도면이다.
도 137 및 도 138은 중앙 지식 보유(CKR)의 내부 세부 사항을 보여주는 도면이다.
도 139는 자동화된 연구 메커니즘(ARM)을 보여주는 도면이다.
도 140은 문체 분석 스캐닝(SS)을 보여주는 도면이다.
도 141은 추정 중단 시스템(AOS)을 보여주는 도면이다.
도 142는 지능형 정보 및 구성 관리(I2CM) 및 관리 콘솔을 도시하는 도면이다.
도 143는 개인적인 지능 프로필(PIP)를 보여주는 도면이다.
도 144는 생활 관리 및 자동화(LAA)를 보여주는 도면이다.
도 145는 행동 모니터링(BM)을 보여주는 도면이다.
도 146은 윤리적 사생활 보호법(EPL)을 보여주는 도면이다.
도 147은 LIZARD 알고리즘의 개요를 보여주는 도면이다.
도 148은 반복적인 지능 성장을 보여주는 도면이다.
도 149 및 도 150은 반복적인 발전을 보여주는 도면이다.
도 151 내지 도 154는 창조 모듈을 보여주는 도면이다.
도 155 내지 도 156은 개인 보조로 사용되는 LOM을 보여주는 도면이다.
도 157은 연구 도구로 사용되는 LOM을 보여주는 도면이다.
도 158 및 도 159는 제안된 이론의 장단점을 탐구하는 LOM을 보여주는 도면이다.
도 160 및 도 161은 외교 정책 전쟁 게임을 위한 규칙 수립을 수행하는 LOM을 보여주는 도면이다.
도 162 및 도 163은 조사 저널리즘 작업들을 수행하는 LOM을 도시하는 도면이다.
도 164 및 도 165는 역사적 검증을 수행하는 LOM을 도시하는 도면이다.
도 166 내지 도 179는 안전하고 효과적인 디지털-지향 언어 LAQIT를 보여주는 도면이다. 보다 상세하게,
도 166은 LAQIT의 개념을 도시하는 도면이다.
도 167은 사용 가능한 주요 언어 타입을 보여주는 도면이다.
도 168 및 도 169는 LAQIT의 선형 모드를 도시하는 도면이다.
도 170 및 도 171은 원자 모드의 특성을 보여주는 도면이다.
도 172 내지 도 174는 원자 모드의 암호화 특징에 대한 개요를 보여주는 도면이다.
도 175 및 도 176은 재 지정 결합의 메커니즘을 도시하는 도면이다.
도 177 및 도 178은 방사성 원소의 메커니즘을 도시하는 도면이다.
도 179는 암호화 및 스트리밍이 가능한 분자 모드를 도시하는 도면이다.
도 180 내지 도 184는 분산형 정보 분배 시스템 BCHAIN에 연결되는 UBEC 플랫폼과 프런트 엔드의 개요를 도시하는 도면이다. 보다 상세하게,
도 180은 BCHAIN 사용 어플리케이션을 포함하고 실행하는 BCHAIN 노드를 도시하는 도면이다.
도 181은 BCHAIN 프로토콜의 핵심 논리를 도시하는 도면이다.
도 182는 전략 창조 모듈(SCM)을 관리하는 동적 전략 적응(DSA)을 도시하는 도면이다.
도 183은 다양한 경제 속성을 가진 암호화 디지털 경제 교류(CDEE)를 도시하는 도면이다.
도 184는 공생적 재귀 지능 향상(SRIA)을 도시하는 도면이다.
The present invention will be more fully understood by reference to the detailed description taken in conjunction with the drawings, in which:
Figures 1 through 26 are diagrams showing critical infrastructure protection and compensation through cloud and layered information security known as CIPR/CTIS. In more detail,
Figures 1 and 2 are diagrams showing a method for presenting definitions of multiple perspectives of security interpretation as a methodology for analysis.
Figure 3 is a diagram showing a cloud-based managed encryption security service architecture for secure EI2 (extranet, intranet, Internet) networking.
Figures 4 to 8 are diagrams illustrating an overview of a managed network and security service provider (MNSP).
Figure 9 is a diagram showing real-time security processing regarding LIZARD cloud-based encryption security.
Figure 10 is a diagram showing CIPR through a CTIS case in an energy system.
Figure 11 is a diagram illustrating Step 1 - Initial System Intrusion.
Figure 12 is a diagram illustrating stage 2 - initial Trojan horse deployment.
Figure 13 is a diagram illustrating Step 3 - Downloading of advanced executable malware.
Figure 14 is a diagram illustrating Step 4 - Compromise of the intrusion prevention/defense system.
Figure 15 is a diagram illustrating the hacker's desired behavior and the actual security response.
Figure 16 is a diagram showing Scheduled Internal Authentication Protocol Access (SIAPA).
Figure 17 is a diagram showing root level access and reference level access.
Figure 18 is a diagram showing a management review.
Figure 19 is a diagram illustrating iterative intelligence growth/intelligence evolution (I2 GE).
Figure 20 is a diagram showing the infrastructure system.
Figure 21 is a diagram showing the criminal system, the infrastructure system, and the public infrastructure.
Figures 22 and 23 are diagrams illustrating how external code can be syntactically reproduced from scratch to mitigate potentially undetected malicious attacks.
Figures 24 and 25 are diagrams showing how recursive debugging loops through code segments.
Figure 26 is a diagram illustrating the internal workings of need map matching.
Figures 27 to 42 are diagrams showing machine intelligence (MACINT) and retaliation through secret operations in cyberspace. More specifically,
Figure 27 is a diagram illustrating intelligent information management, viewing and control.
Figure 28 is a drawing showing a movement by behavior analysis.
Figures 29 and 30 are diagrams showing a criminal system and punishment for the criminal system.
Figures 31 and 32 are diagrams showing the flow of MACINT.
Figure 33 is a diagram showing the MACINT covert operation outline and how the perpetrator exploits the corporate system.
Figure 34 is a diagram showing the details of long-term/deep scanning using big data.
Figure 35 is a diagram showing how an arbitrary computer is searched on a trusted platform.
Figure 36 is a diagram showing how a known dual or triple agent from a trusted platform may be involved to further the forensic investigation.
Figure 37 is a diagram showing how a trusted platform uses ISP APIs.
Figure 38 is a diagram showing how to use a trusted platform to leverage security APIs provided by software and hardware vendors to use established backdoors.
Figures 39 through 41 are diagrams showing how user-defined attacks can be applied to arbitrary and criminal computers.
Figure 42 is a diagram showing how long-term priority flags are pushed to a trust platform for monitoring criminal systems.
Figures 43 to 68 are diagrams illustrating a logically inferred zero-database a priori real-time defense (LIZARD). In more detail,
Figures 43 and 44 are diagrams showing the dependency structure of LIZARD.
Figure 45 is a drawing showing an outline of LIZARD.
Figure 46 is a diagram illustrating an overview of the main algorithm functions for LIZARD.
Figure 47 is a diagram illustrating the internal operation of a static core (SC).
Figure 48 is a diagram showing how the inner core contains the essential core functions of the system.
Figure 49 is a diagram illustrating the internal operation of a dynamic shell (DS).
Figure 50 is a diagram illustrating a repeating module that intelligently modifies, creates, and destroys modules on a dynamic shell.
Figure 51 is a diagram showing the Iteration Core, which is the main logic of the iteration code for security improvement.
Figures 52 to 57 are diagrams showing the logic process of a differential correction algorithm (DMA).
Figure 58 is a diagram showing an overview of virtual obfuscation.
Figures 59 to 61 are diagrams illustrating monitoring and response aspects of virtual obfuscation.
Figures 62 and 63 are diagrams illustrating data recovery tracking that tracks all information uploaded from and downloaded to a suspected entity.
Figures 64 and 65 are diagrams illustrating the internal operation of the data recovery trigger.
Figure 66 is a diagram showing data selection that filters out highly sensitive data and mixes real data with simulated data.
Figures 67 and 68 are schematic diagrams illustrating the internal workings of the behavioral analysis.
Figures 69 to 120 are diagrams showing the memory and perception of critical thinking (CTMP). In more detail,
Figure 69 is a diagram showing the main logic of CTMP.
Figure 70 is a drawing showing the viewpoint of perception.
Figures 70 to 73 are drawings showing the dependency structure of CTMP.
Figure 74 is a diagram showing the final logic for processing intelligent information in CTMP.
Figure 75 is a diagram showing the two main inputs of intuitive/perceptual and thinking/logical assimilation to a single terminal output representing CTMP.
Figure 76 is a diagram illustrating the range of intelligent thinking that occurs in the original Selected Pattern Matching Algorithm (SPMA).
Figure 77 is a diagram showing a conventional SPMA parallel to the critical thinking performed with CTMP through perceptions and rules.
Figure 78 is a diagram showing how correction rules are generated in contrast to conventional current rules.
Figures 79 and 80 are diagrams illustrating a perception matching (PM) module.
Figures 81 to 85 are diagrams showing rule syntax derivation/generation.
Figures 86 and 87 are diagrams showing the operation of the Rule Syntax Format Separation (RSFS) module.
Figure 88 is a diagram showing the operation of a rule execution parser (RFP).
Figures 89 and 90 are diagrams showing a running debugger.
Figure 91 is a diagram showing rule expansion.
Figures 92 and 93 are diagrams showing a sequential memory configuration.
Figure 94 is a diagram showing a non-sequential memory configuration.
Figures 95 to 97 are diagrams showing memory recognition (MR).
Figures 98 and 99 are diagrams showing the domain interpretation logic (FIL).
Figures 100 and 101 are diagrams showing an automatic recognition discovery mechanism (APDM).
Figure 102 is a diagram showing the primitive recognition production (RP2).
Figure 103 is a diagram showing a comparable variable format generator (CVFG).
Figure 104 is a diagram showing a node comparison algorithm (NCA).
Figures 105 and 106 are diagrams showing system metadata separation (SMS).
Figures 107 and 108 are diagrams showing a metadata classification module (MCM).
Figure 109 is a diagram showing metric processing (MP).
Figures 110 and 111 are diagrams showing the internal design of the recognition inference.
Figures 112 through 115 are diagrams showing a perception observer emulator (POE).
Figures 116 and 117 are diagrams showing implicit derivations (IDs).
Figures 118 to 120 are diagrams showing self-critical knowledge density (SCKD).
Figures 121 to 165 are diagrams showing vocabulary objectivity mining (LOM). In more detail,
Figure 121 is a diagram showing the main logic for vocabulary objectivity mining (LOM).
Figures 122 to 124 are diagrams showing a managed artificial intelligence service provider (MAISP).
Figures 125 to 128 are diagrams showing the dependency structure of LOM.
Figures 129 and 130 are diagrams showing the internal logic of the initial query inference (IQR).
Figure 131 is a drawing showing the investigation description (SC).
Figure 132 is a diagram showing the assertion configuration (AC).
Figures 133 and 134 are diagrams showing internal details of how hierarchical mapping (HM) works.
Figures 135 and 136 are drawings showing internal details of a rational appeal (RA).
Figures 137 and 138 are diagrams showing the internal details of the central knowledge repository (CKR).
Figure 139 is a diagram showing an automated research mechanism (ARM).
Figure 140 is a diagram showing stylistic analysis scanning (SS).
Figure 141 is a diagram showing the estimated shutdown system (AOS).
FIG. 142 is a diagram illustrating the Intelligent Information and Configuration Management (I2 CM) and management console.
Figure 143 is a diagram showing a personal intelligence profile (PIP).
Figure 144 is a diagram showing life management and automation (LAA).
Figure 145 is a diagram showing behavior monitoring (BM).
Figure 146 is a diagram showing the Ethical Privacy Law (EPL).
Figure 147 is a diagram showing an overview of the LIZARD algorithm.
Figure 148 is a diagram showing repetitive intelligence growth.
Figures 149 and 150 are drawings showing repetitive development.
Figures 151 to 154 are drawings showing the creation module.
Figures 155 and 156 are drawings showing LOMs used as personal assistants.
Figure 157 is a drawing showing a LOM used as a research tool.
Figures 158 and 159 are drawings showing LOMs exploring the pros and cons of the proposed theory.
Figures 160 and 161 are diagrams showing a LOM performing rule-making for a foreign policy war game.
Figures 162 and 163 are diagrams illustrating LOM performing investigative journalism work.
Figures 164 and 165 are diagrams illustrating a LOM performing historical verification.
Figures 166 to 179 are diagrams showing a safe and effective digital-oriented language LAQIT. In more detail,
Figure 166 is a diagram illustrating the concept of LAQIT.
Figure 167 is a diagram showing the major language types available.
Figures 168 and 169 are diagrams showing the linear mode of LAQIT.
Figures 170 and 171 are drawings showing the characteristics of atomic modes.
Figures 172 to 174 are diagrams showing an overview of the cryptographic features of the atomic mode.
Figures 175 and 176 are drawings illustrating the mechanism of re-assignment coupling.
Figures 177 and 178 are drawings showing the mechanism of radioactive elements.
Figure 179 is a diagram illustrating a molecular mode capable of encryption and streaming.
Figures 180 to 184 are diagrams illustrating an overview of the UBEC platform and front end connected to the distributed information distribution system BCHAIN. In more detail,
FIG. 180 is a diagram illustrating a BCHAIN node that includes and executes a BCHAIN-enabled application.
Figure 181 is a diagram illustrating the core logic of the BCHAIN protocol.
Figure 182 is a diagram illustrating the dynamic strategy adaptation (DSA) that manages the strategy creation module (SCM).
Figure 183 is a diagram illustrating a cryptographic digital economic exchange (CDEE) with various economic properties.
Figure 184 is a diagram illustrating symbiotic recursive intelligence enhancement (SRIA).

클라우드 및 계층화된 정보 보안(CTIS; Cloud & Tiered Information Security)를 통한 비판적 인프라 보호 및 보상(CIPR; Critical Infrastructure Protection & Retribution)Critical Infrastructure Protection & Retribution (CIPR) through Cloud & Tiered Information Security (CTIS)

도 1과 도 2는 보안 해석의 다수 관점들에 대한 정의들을 분석을 위한 방법론으로 제시하기 위한 방법을 보여주는 도면이다. 도면 부호 1에서, 비콘들과 에이전트들의 확립된 네트워크가 공격자와 나쁜 행위자의 맵을 형성하는데 사용된다. 이러한 맵/데이터 베이스를 정교한 예측 알고리즘과 결합하면 잠재적인 사전 범죄(pre-crime) 위협이 발생한다. I2GE(21)은 빅 데이터와 멀웨어 시그니처 인식을 활용하여 그 요인을 결정한다. 보안 행동(20) 스토리지는 보안 이벤트, 영향 및 적절한 대응의 선례를 형성한다. 이러한 적절한 대응은 CTMP(22)(비판적 사고, 메모리, 인식)가 추가적인 보안 계층으로 비판을 받을 수 있다. 도면 부호 2는 어떤 자산이 위험에 처해 있는지, 어떤 잠재적인 피해가 발생할 수 있는지를 나타낸다. 예를 들면: 수력 발전 댐은 수문을 열었을 때 결국에는 인근 마을에 홍수를 일으켜 생명과 재산을 잃을 수 있다. 인프라 DB(3)은 국가 인프라 작업과 관련된 공공 또는 민간 회사와 관련된 민감한 정보와 중요하지 않은 정보가 포함된 일반 데이터베이스를 의미한다. 인프라 컨트롤(4)은 댐 수문, 국가의 전기 기관 등 의 전기의 전력량과 같은 산업 인프라 장비를 제어 할 수 있는 잠재적인 기술적, 디지털적 및/ 또는 기계적 수단이다. 도면 부호 5를 참조하면 트래픽 패턴은 잠재적인 사각지대의 시간을 강조하기 위해 분석된다. 그러한 공격은 합법적인 트래픽과 혼합되도록 쉽게 숨길 수 있다. 질문: 나쁜 행위자가 관심을 가질만한 정치/ 금융/ 스포츠/ 기타 사건이 있는가? 신뢰 플랫폼의 외부 에이전트 네트워크는 해커 활동 및 준비를 보고한다. 따라서 공격 타이밍을 예측할 수 있다. 도면 부호 6에서는 다음과 같이 질문된다: 공격의 대상이 될 수 있는 취약한 기업은 누구인가. 주어진 지리적 위치에서 어떤 유형의 기업이 취약 한가. 가장 취약한 자산/ 통제 란 무엇이며 무엇이 최선책인가. 신뢰 플랫폼의 외부 에이전트 네트워크는 해커 활동 및 준비를 보고한다. 따라서 공격 위치를 추정할 수 있다. 도면 번호 7에서, 질문이 요구된다: 세계의 지정 학적, 기업적, 재정적 압박이 그러한 공격의 자금 조달과 재촉을 촉진하기 위해 존재하는지 질문한다. 누가 혜택을 보는지, 얼마만큼의 이익을 얻을 것 인가. 신뢰 플랫폼의 외부 에이전트 네트워크는 해커 활동 및 준비를 보고한다. 따라서 공격 동기를 추정 할 수 있다. 도면 번호 8에서, 질문은 다음과 같이 질문된다: 멀웨어에 대한 잠재적인 악용 및 숨어있는 점은 무엇인가. 어떻게 사각 지대와 요새화된 액세스 지점을 사용하여 중요한 자산과 인프라 제어 지점을 손상시킬 수 있나. LIZARD(16)은 외부 코드에서 목적과 기능을 도출 할 수 있으므로 악의적인 의도가 있거나 합법적인 원인이 없는 경우 이를 차단한다. CTMP(22)는 차단/ 승인 결정에 대해 비판적으로 생각할 수 있으며 보완적인 보안 계층 역할을 한다.Figures 1 and 2 are diagrams showing a method for presenting definitions of multiple aspects of security interpretation as a methodology for analysis. In the diagram symbol 1, an established network of beacons and agents is used to form a map of attackers and bad actors. Combining this map/database with sophisticated predictive algorithms creates potential pre-crime threats. I2 GE (21) determines the factors by utilizing big data and malware signature recognition. The security behavior (20) storage forms a precedent for security events, impacts, and appropriate responses. This appropriate response can be criticized by CTMP (22) (critical thinking, memory, awareness) as an additional layer of security. The diagram symbol 2 indicates which assets are at risk and what potential damage can occur. For example: A hydroelectric dam, when opened, can eventually flood a nearby village, causing loss of life and property. The infrastructure DB (3) refers to a general database containing sensitive and non-critical information related to public or private companies involved in national infrastructure work. Infrastructure control (4) is a potential technological, digital and/or mechanical means of controlling industrial infrastructure equipment such as dam gates, power output of the country's electrical power plants, etc. Referring to Figure 5, the traffic pattern is analyzed to highlight the timing of potential blind spots. Such attacks can easily be hidden by blending in with legitimate traffic. Question: Are there any political/financial/sports/other events that might be of interest to bad actors? The external agent network of the trust platform reports hacker activity and preparations. Thus, the timing of the attack can be predicted. In Figure 6, the question is asked: Who are the vulnerable companies that could be targeted by the attack? What type of companies are vulnerable in a given geographic location? What are the most vulnerable assets/controls and what is the best strategy? The external agent network of the trust platform reports hacker activity and preparations. Thus, the location of the attack can be estimated. In Figure 7, the question is asked: Do global geopolitical, corporate and financial pressures exist to facilitate the funding and execution of such attacks? Who benefits and how much? The external agent network of the trust platform reports hacker activity and preparations, so that the motive for the attack can be inferred. In Figure 8, the question is asked: What are the potential exploits and hidden points for the malware? How can blind spots and fortified access points be used to compromise critical assets and infrastructure control points? LIZARD (16) can derive the purpose and function from external code, so that it blocks it if there is malicious intent or no legitimate cause. CTMP (22) can think critically about the block/allow decision and acts as a complementary security layer.

도 3은 보안 EI2(엑스트라넷, 인트라넷, 인터넷) 네트워킹을 위한 클라우드 기반 관리형 암호화 보안 서비스 아키텍쳐를 보여주는 도면이다. 관리형 네트워크 및 보안 서비스 제공자(MNSP)(9)는 에너지, 화학, 핵, 댐 등 주요 인프라 산업 부문에 관리형 암호화 보안(Managed Encrypted Security), 연결 및 규정 준수 솔루션 및 서비스(Connectivity & Compliance Solutions & Services)를 제공한다. 신뢰 플랫폼(Trusted Platform)(10)은 보안 정보 및 서비스를 공유함으로써 상호 이익을 얻는 검증된 회사 및 시스템의 집합체이다. 하드웨어 및 소프트웨어 공급자(11)은 업계에서 인정하는 하드웨어 / 소프트웨어 제조업체 (예: Intel, Samsung, Microsoft, Symantec, Apple 등)이다. 이러한 맥락에서 그들은 신뢰 플랫폼(10)에 제한된 또는 전체 용량으로 백 도어 액세스를 가능하게 하는 제품에 대한 잠재적인 액세스 및/ 또는 개발 수단을 제공한다. 이는 신뢰 플랫폼이 파트너 및 공동 보안 부서와 협력하여 제정하고자 하는 잠재적인 보안 및/ 또는 응징 프로세스에 대해 활성화되었다. 가상 사설망(VPN)(12)은 MNSP(9), 신뢰 플랫폼 및 관련 파트너 간의 안전하고 논리적으로 분리된 통신을 가능하게 하는 업계 표준 기술이다. 엑스트라 넷을 사용하면 디지털 요소를 마치 같은 지역(예: LAN)에 있는 것처럼 사실상 공유할 수 있다. 따라서 이 두 기술의 조합은 신뢰 플랫폼의 운영을 향상시키기 위해 파트너 간의 효율적이고 안전한 통신을 촉진한다. 보안 서비스 제공자들(13)은 디지털 보안 전략 및 솔루션을 제공하는 공개 및/ 또는 비공개 기업 집합체이다. 이 솔루션 / 제품은 계약 기반으로 구성되어 신뢰 플랫폼이 원래의 보안 정보(즉, 새로운 멀웨어 서명) 및 보안 분석의 혜택을 누릴 수 있다. 이러한 보안 강도의 증가는 추가 보안 도구 및 정보에 대한 액세스 권한을 보유하고 있으므로 보안 서비스 제공자 자신에게도 이익이 된다. 제 3 자 위협 정보 (3PTI) 제공(14)은 보안 정보(즉, 새로운 멀웨어 서명)의 상호 공유이다. 신뢰 플랫폼은 이러한 보안 정보를 전송, 수신 및 동화하는 중앙 집중식 허브 역할을 한다. 여러 정보 피드를 사용하면 정보 협력을 식별하는 분석 모듈 (예: 음모 탐지(19))을 통해 고급 보안 패턴(보안 서비스 제공제들을 활용)을 통해 더 진보한 패턴들을 얻을 수 있다. 법 집행(15)은 주(즉, NYPD), 국가(즉, FBI) 또는 국제(즉, 인터폴)이든 관련 법 집행 부서를 지칭한다. 범죄 해커에 대한 응징을 촉진하거나 수행하기 위해 보안 정보를 수신하고 전송하는 통신이 설정된다. 그러한 응징은 일반적으로 적절한 용의자를 찾아 체포하고 관련 법정에서 시도한다.Figure 3 is a diagram illustrating a cloud-based managed encryption security services architecture for secure EI2 (extranet, intranet, internet) networking. A Managed Network and Security Service Provider (MNSP) (9) provides Managed Encrypted Security, Connectivity & Compliance Solutions & Services to key infrastructure industry sectors such as energy, chemical, nuclear, and dams. A Trusted Platform (10) is a collection of proven companies and systems that mutually benefit from sharing security information and services. A Hardware and Software Provider (11) is an industry-recognized hardware/software manufacturer (e.g., Intel, Samsung, Microsoft, Symantec, Apple, etc.). In this context, they provide potential access and/or development means for products that enable back door access to the Trusted Platform (10) in limited or full capacity. This is enabled for potential security and/or remediation processes that the Trusted Platform seeks to enact in cooperation with its partners and joint security departments. A Virtual Private Network (VPN) (12) is an industry standard technology that enables secure and logically isolated communications between the MNSP (9), the trust platform, and its associated partners. An extranet allows the digital elements to be shared virtually as if they were in the same area (e.g., a LAN). The combination of these two technologies therefore facilitates efficient and secure communications between partners to enhance the operation of the trust platform. Security Service Providers (13) are a collection of public and/or private companies that provide digital security strategies and solutions. These solutions/products are structured on a contractual basis so that the trust platform can benefit from the original security information (i.e., new malware signatures) and security analytics. This increased security strength also benefits the security service provider itself as it has access to additional security tools and information. Third Party Threat Intelligence (3PTI) provisioning (14) is the mutual sharing of security information (i.e., new malware signatures). The trust platform acts as a centralized hub for transmitting, receiving, and assimilating this security information. Using multiple information feeds, more advanced patterns can be obtained through advanced security patterns (utilizing security service providers) through analysis modules that identify intelligence collaboration (e.g., conspiracy detection (19)). Law enforcement (15) refers to the relevant law enforcement agency, whether state (i.e., NYPD), national (i.e., FBI) or international (i.e., Interpol). Communications are established to receive and transmit security information to facilitate or carry out retribution against criminal hackers. Such retribution typically involves finding and arresting appropriate suspects and trying them in the relevant courts.

도 4 내지 도 8은 관리형 네트워크 및 보안 서비스 제공자(MNSP)의 개요를 나타내는 도면이다. LIZARD(16)는 이전의 과거 데이터를 참조하지 않고 위협을 분석한다. 인공의 보안 위협 (AST)(17)은 보안 룰 세트들의 효력을 테스트하기 위한 가상적인 보안 시나리오를 제공한다. 보안 위협에 대한 의미있는 비교를 제공하기 위해 심각도 및 유형이 일관성 있게 나타낸다. 창조성 모듈(18)은 이전 형식들로부터 새로운 (Hybrid) 형식을 생성하는 프로세스를 수행한다. 여러 알고리즘을 서비스하기 위해 모듈로 플러그인 모듈로 사용된다. 음모 탐지(Conspiracy Detection)(19)는 다수의 '음모성' 보안 이벤트들의 정기적인 백그라운드 검사를 제공하고, 관련 없어 보이는 보안 이벤트들 사이의 패턴 및 상호 관계를 결정하기 위한 시도한다. 보안 행동(20): 이벤트들과 이벤트들의 보안 응답들 및 특성들을 이후 쿼리를 위해 저장되고 인덱싱 된다. I2GE(21)은 MNSP(9)의 대규모 데이터, 소급 분석 지점이다. 표준 서명 추적 기능 중에서 AST를 창조성 모듈과 함께 사용하여 향후 멀웨어의 잠재적 변형을 에뮬레이트 할 수 있다. CTMP(22)는 여러 소스(예: I2GE, LIZARD, 신뢰 플랫폼 등)의 상호 참조 정보를 활용하고 인식과 현실에 대한 기대치를 학습한다. CTMP는 문제에 대한 객관적인 결정을 내릴 수 있는 자신의 능력이라고 추정하며 내부의 낮은 신뢰도로 결정을 내리는 것을 삼가 한다. 관리 콘솔(MC)(23)은 인간이 복잡한 시스템 및 반 자동 시스템을 모니터링하고 제어하는 지능적인 인터페이스이다. 지능형 정보 및 구성 관리 (I2CM)(24)에는 정보의 흐름과 허가된 시스템 활용을 제어하는 다양한 기능이 포함되어 있다.Figures 4 through 8 are schematic diagrams of a Managed Network and Security Service Provider (MNSP). LIZARD (16) analyzes threats without reference to previous historical data. Artificial Security Threats (AST) (17) provide hypothetical security scenarios for testing the effectiveness of security rule sets. Severity and type are consistently presented to provide meaningful comparisons of security threats. Creativity module (18) performs the process of generating new (hybrid) formats from previous formats. It is used as a plug-in module to service various algorithms. Conspiracy Detection (19) provides periodic background checks of a large number of 'conspiracy' security events and attempts to determine patterns and correlations between seemingly unrelated security events. Security Behavior (20): Events and their security responses and characteristics are stored and indexed for later querying. I2 GE (21) is the large-scale data, retrospective analysis point of MNSP (9). Among the standard signature tracing functions, AST can be used in conjunction with the creativity module to emulate potential variants of future malware. CTMP (22) utilizes cross-reference information from multiple sources (e.g., I2 GE, LIZARD, Trust Platform, etc.) and learns perception and expectations about reality. CTMP assumes its own ability to make objective decisions on issues and avoids making decisions with low internal confidence. Management Console (MC) (23) is an intelligent interface through which humans monitor and control complex and semi-autonomous systems. Intelligent Information and Configuration Management (I2 CM) (24) includes various functions to control the flow of information and authorized system utilization.

에너지 네트워크 교환(Energy Network Exchange)(25)은 에너지 공급 업체, 생산자, 구매자 등을 연결하는 대형 사설 엑스트라 넷이다. 이를 통해 일반 산업과 관련된 보안 정보를 교환 할 수 있다. 에너지 교환 네트워크는 VPN/ 엑스트라 넷(12)를 통해 MNSP 클라우드(9)와 통신한다. 이러한 클라우드 통신은 1) 중요한 보안 정보 데이터가 에너지 네트워크 교환에서 MNSP 클라우드로 제공되고 2) MNSP 클라우드에서 에너지 네트워크 교환으로 중요한 보안 수정 조치가 제공된다는 점에서 양방향 보안 분석이 가능하다. 에너지 회사의 모든 EI2(엑스트라 넷, 인트라넷, 인터넷) 네트워킹 트래픽은 항상 VPN(12)를 통해 MNSP 클라우드로 라우팅된다. MNSP가 모든 서비스에 대해 사용하는 인증 및 암호화는 국가 표준(예: FedRAMP, NIST, OMB 등) 및 국제 표준 (예: ETSI, ISO/ IEC, IETF, IEEE 등) 및 암호화 요구 사항(예: FIPS 등)을 준수한다. 인트라넷 (26)(암호화된 계층 2/3 VPN)은 기업(에너지 회사) 개인 네트워크(27) 내에서 보안 내부 연결을 유지한다. 이로써 LIZARD 라이트 클라이언트(43)은 기업 인프라 내에서 작동 할 수 있으며 MNSP 클라우드(9)내에 존재하는 LIZARD 클라우드(16)와 안전하게 통신 할 수 있다. 도면 부호 27은 개인 네트워크의 로컬 노드를 나타낸다. 이러한 개인 네트워크는 여러 위치를 제공한다(위치 A, B 및 C로 표시). 서버 클러스터(위치 C) 또는 모바일 장치가 있는 공유 직원의 사무실과 개인 WiFi 연결(위치 A)과 같은 각기 다른 기술 인프라 설정이 각 개인 네트워크 내에 존재할 수 있다. 개인 네트워크의 각 노드에는 자체 관리 콘솔 (MC)(23)이 할당되어 있다. 포터블 미디어 장치들(28)은 개인 네트워크에 안전하게 연결되도록 구성되어 있으며, 따라서 인트라넷(26)을 확장함으로써 보안 VPN/엑스트라넷 연결(12)을 통해 MNSP(9)에 간접적으로 연결된다. 이 보안 연결을 사용하면 모든 트래픽이 MNSP를 통해 라우팅되어 배포된 실시간 및 소급 보안 분석 알고리즘에 대한 최대 노출이 가능하다. 이러한 포터블 장치(휴대용 장치)는 보안 개인 네트워크 내부에서든 공공 커피 숍의 WiFi 액세스에서든 이 보안 연결을 유지할 수 있다. 비무장 지대(DMZ)(29)는 통상의 컴퓨터보다 높은 보안 책임을 갖는 HTTP 서버를 포함하는 서브 네트워크이다. 서버의 보안 책임은 보안 과실이 아니라 공용 서버의 복잡한 소프트웨어 및 하드웨어 구성 때문이다. 보안을 강화하기 위한 최선의 노력에도 불구하고 많은 잠재적 공격이 존재하기 때문에 서버는 DMZ에 배치되어 나머지 개인 네트워크(위치 C)가 이러한 보안 책임에 노출되지 않는다. 이러한 분리로 인해 HTTP 서버는 DMZ 내부에 있지 않은 개인 네트워크 내의 다른 장치와 통신 할 수 없다. LIZARD 라이트 클라이언트(43)은 HTTP 서버에 설치되어 DMZ 내에서 작동 할 수 있다. MC(23)가 HTTP 서버와 DMZ에 액세스 할 수 있도록 DMZ 규칙에서는 예외가 있다. 라이트 클라이언트는 이벤트 12와 26에서 형성된 암호화된 채널을 통해 MNSP와 통신한다. 도면 부호 30을 참조하면, 이들 서버는 개인 네트워크에서 격리되어 있지만 DMZ (29)에 감추어지지 않는다. 이는 개인 네트워크 내의 장치들의 상호 통신을 허용한다. 이들은 각각 LIZARD 라이트 클라이언트(43)의 독립된 사례를 가지고 있으며 MC(23)에 의해 관리된다. 인터넷(31)은 LIZARD 라이트 클라이언트를 실행하는 MNSP(9)와 기업 장치(28) 사이의 정보 전송 매체와 관련하여 참조된다. 인터넷은 근거리 통신망(LAN)에서 발생하는 로컬 상황의 위협과는 달리 기업 장치에 대한 보안 위험 요소가 가장 많이 발생하는 소스이다. 높은 보안 위험 때문에 개별 장치의 모든 정보 전송이 MNSP에 프록시처럼 라우팅된다. 인터넷의 잠재적인 나쁜 행위자는 VPN/ 엑스트라 넷 구조(12)로 인해 암호화된 정보만 볼 수 있다. 제 3자 위협 정보(3PTI) 제공(32)는 기존 계약상 의무에 따라 타사에서 제공한 사용자 지정 조정 정보 입력을 나타낸다. 반복적인 진화(33): 병렬적 진화 경로가 성숙되고 선택된다. 반복적인 세대는 동일한 인공 보안 위협 (AST)에 적응하며 최고의 성격 특성을 가진 통로는 가장 큰 보안 위협에 저항한다. 진화 경로(34): 사실상 포함되어 있고 고립된 일련의 규칙 집합 세대. 진화 특성과 기준은 그러한 경로 성격 X에 의해 정의된다.The Energy Network Exchange (25) is a large private extranet that connects energy suppliers, producers, and buyers. It allows for the exchange of security information relevant to general industry. The Energy Exchange Network communicates with the MNSP Cloud (9) via a VPN/extranet (12). This cloud communication allows for bidirectional security analysis in that 1) important security information data is provided from the Energy Network Exchange to the MNSP Cloud, and 2) important security remediation measures are provided from the MNSP Cloud to the Energy Network Exchange. All EI2 (extranet, intranet, Internet) networking traffic of the energy company is always routed to the MNSP Cloud via the VPN (12). The authentication and encryption used by the MNSP for all services are compliant with national standards (e.g., FedRAMP, NIST, OMB, etc.) and international standards (e.g., ETSI, ISO/IEC, IETF, IEEE, etc.) and encryption requirements (e.g., FIPS, etc.). The intranet (26) (encrypted layer 2/3 VPN) maintains a secure internal connection within the corporate (energy company) private network (27). This allows the LIZARD light client (43) to operate within the corporate infrastructure and securely communicate with the LIZARD cloud (16) that exists within the MNSP cloud (9). Reference numeral 27 represents a local node of the private network. This private network provides several locations (represented by locations A, B and C). Different technical infrastructure setups can exist within each private network, such as a server cluster (location C) or a shared staff office with mobile devices and a private WiFi connection (location A). Each node in the private network is assigned its own management console (MC) (23). Portable media devices (28) are configured to securely connect to the private network and thus indirectly connect to the MNSP (9) via the secure VPN/extranet connection (12) by extending the intranet (26). This secure connection allows all traffic to be routed through the MNSP, providing maximum exposure to the deployed real-time and retroactive security analysis algorithms. These portable devices (handheld devices) can maintain this secure connection whether they are within the secure private network or on WiFi access in a public coffee shop. The Demilitarized Zone (DMZ) (29) is a subnetwork containing an HTTP server with a higher security responsibility than a typical computer. The security responsibility of the server is not a security lapse, but rather a result of the complex software and hardware configuration of the public server. Despite best efforts to enhance security, many potential attacks exist, so the server is placed in the DMZ so that the rest of the private network (location C) is not exposed to this security responsibility. This separation prevents the HTTP server from communicating with other devices within the private network that are not within the DMZ. The LIZARD light client (43) is installed on the HTTP server and can operate within the DMZ. There is an exception to the DMZ rule to allow the MC (23) to access the HTTP server and the DMZ. The light client communicates with the MNSP over the encrypted channel established in events 12 and 26. Referring to the drawing symbol 30, these servers are isolated from the private network but are not hidden in the DMZ (29). This allows for the devices within the private network to communicate with each other. They each have an independent instance of the LIZARD light client (43) and are managed by the MC (23). The Internet (31) is referenced in relation to the information transmission medium between the MNSP (9) running the LIZARD light client and the enterprise device (28). The Internet is the source of the greatest number of security risks to the enterprise device, as opposed to the local threats that occur in the local area network (LAN). Due to the high security risk, all information transmissions from the individual devices are routed to the MNSP as a proxy. Potential bad actors on the Internet can only see encrypted information due to the VPN/extranet structure (12). The provision of third party threat intelligence (3PTI) (32) represents user-defined customized information inputs provided by third parties in accordance with existing contractual obligations. Iterative evolution (33): Parallel evolution paths are matured and selected. Repeated generations adapt to the same artificial security threat (AST), and the pathway with the best personality traits resists the greatest security threat. Evolutionary path (34): A series of rule sets generations that are virtually contained and isolated. The evolutionary traits and criteria are defined by such a path personality X.

도 9는 LIZARD 클라우드 기반 암호화 보안에 관한 실시간 보안 처리를 나타내는 도면이다. 구문 모듈(35)는 컴퓨터 코드를 읽고 쓸 수 있는 프레임 워크를 제공한다. 쓰기를 위해; PM으로부터 복잡한 형식화된 목적을 수신 한 다음 임의의 코드 구문으로 코드를 작성하고, 헬퍼 함수가 임의의 코드를 실제 실행 코드(원하는 언어에 따라 다름)로 변환 할 수 있다. 읽기 위해; 그러한 코드의 함수를 위한 목적을 도출하기 위해 PM에 대한 구문적 해석을 제공한다. 목적 모듈(36)은 구문 모듈(35)을 사용하여 코드에서 목적을 도출하고 목적을 '복잡한 목적 형식'으로 출력한다. 그러한 목적은 SM에 의해 해석된 대로 코드 블록의 의도된 기능을 적절하게 기술해야 한다(비록 그 코드가 데이터에 은밀하게 포함 된 경우라 할지라도). 가상 난독화(Virtual Obfuscation)(37) 기업 네트워크와 데이터 베이스는 가상 환경에서 복제되고 민감한 데이터는 모의(가짜) 데이터로 대체된다. 대상의 동작에 따라 실시간으로 더 많은 가짜 요소 또는 시스템의 실제 요소를 포함하도록 환경을 동적으로 변경할 수 있다. 신호 모방(38)은 가상 난독화(보호)의 분석적 결론에 도달했을 때 일반적으로 사용되는 응징 형식을 제공한다. 신호 모방기는 구문 모듈을 사용하여 악성 코드의 해커와의 통신 구문을 이해한다. 그런 다음 이러한 통신을 가로 채서 악성 코드가 해커에게 민감한 데이터를 성공적으로 보낸다는 잘못된 인식을 준다(해커의 허위 사실에 가짜 데이터를 보냈지만). 해커들 또한 상기 LIZARD에 의한 멀웨어의 오류 코드를 전송 받아 상기 오류 코드가 멀웨어로 부터 온 것처럼 보이게 한다. 이로 인해 해커의 시간과 자원이 거짓 디버깅 접선으로 전환되고 결국 제대로 작동하지 않는다는 잘못된 인상으로 작동 중인 멀웨어를 포기한다. 내부 일관성 검사(Internal Consistency Check)(39)는 외부 코드의 모든 내부 기능이 올바른지 확인한다. 전체적으로 외부 코드의 목적과 내부적으로 일치하지 않는 코드 조각이 없는지 확인한다. 외부 코드 재작성(40)은 구문 및 목적 모듈을 사용하여 외부 코드를 복잡한 용도 형식으로 줄인다. 그런 다음 파생된 목적을 사용하여 코드 세트를 작성한다. 이를 통해 외부 코드의 원하는 목적과 이해된 목적만 기업 내에서 실행되며 의도하지 않은 함수 실행이 시스템에 액세스하지 못하도록 한다. 비밀 코드 탐지(41)는 데이터 및 송신 패킷에 은밀하게 삽입된 코드를 검출한다. 니드 맵 매칭(42)은 필요성 및 목적의 매핑된 계층이며 시스템의 전체 목표에 외부 코드가 적합한지 결정하기 위해 참조 된다. LIZARD 라이트 클라이언트(43)는 가상의 난독화(208) 및 신호 모방기와 같은 리소스가 많은 기능을 생략한 LIZARD 프로그램의 경량 버전이다. 참조용 서명 데이터베이스를 사용하지 않는 선험적인 위협 분석을 목적으로 최소한의 컴퓨터 리소스 사용으로 즉각적이고 실시간으로 위협 평가를 수행한다. 로그(44)에서 에너지 회사 시스템(48)은 표준 소프트웨어 오류/ 액세스 로그, 운영 체제 로그, 모니터링 프로브 등과 같은 여러 로그 생성 지점을 갖는다. 그런 다음 이러한 로그는 깊이 및 대응 보안 분석을 위해 로컬 패턴 매칭 알고리즘(46) 및 CTMP(22)에 심층적으로 공급된다. 트래픽(45)에서는 에너지 회사의 로컬 패턴 매칭 알고리즘(46)에 존재하는 모든 내부 및 외부 트래픽이 안티 바이러스, 적응 형 방화벽 등과 같은 초기 보안 계층을 제공하는 산업 표준 소프트웨어로 구성된다. 정정 동작(47)은 처음에는 보안 문제/ 위험을 해결하기 위해 이해되는 로컬 패턴 매칭 알고리즘(46)에 의해 수행되어야 한다. 여기에는 포트 차단, 파일 전송, 관리 기능 요청 등이 포함될 수 있다. 에너지 회사에는 로그 및 트래픽 정보를 전송하는 특수 보안 알고리즘으로부터 격리된 시스템(48)이 있다. 이는 LIZARD(16), I2GE(21) 및 CTMP(22) 알고리즘이 MNSP 클라우드(9)를 기반으로 하기 때문에 발생한다. 이러한 분리는 중앙 집중식 데이터베이스 모델을 제공하여 보안 데이터/ 경향 풀이 더 많아 져서보다 포괄적인 분석을 가능하게 한다.Figure 9 is a diagram showing real-time security processing for LIZARD cloud-based cryptographic security. The syntax module (35) provides a framework for reading and writing computer code. For writing; it receives a complex formatted purpose from the PM, then writes code in arbitrary code syntax, and a helper function can convert the arbitrary code into actual executable code (depending on the desired language). For reading; it provides syntactic interpretation for the PM to derive the purpose for the function of such code. The purpose module (36) derives the purpose from the code using the syntax module (35) and outputs the purpose in a 'complex purpose format'. Such a purpose should adequately describe the intended function of the code block as interpreted by the SM (even if the code is covertly embedded in the data). Virtual Obfuscation (37) The enterprise network and database are replicated in a virtual environment, and sensitive data is replaced with simulated (fake) data. The environment can be dynamically changed in real time to include more fake elements or real elements of the system depending on the target's behavior. Signal mimicry (38) provides a commonly used form of retaliation when the analytical conclusion of virtual obfuscation (protection) is reached. The signal mimicker uses the syntax module to understand the syntax of the malware's communication with the hacker. It then intercepts this communication and gives the hacker a false impression that the malware has successfully sent sensitive data (even though it sent fake data to the hacker's false belief). The hacker also receives the malware's error codes from the LIZARD, making it appear that the error codes came from the malware. This diverts the hacker's time and resources into false debugging contacts and eventually gives up on the running malware under the false impression that it is not working properly. Internal Consistency Check (39) verifies that all internal functions of the external code are correct. It verifies that there are no code fragments that are internally inconsistent with the purpose of the external code as a whole. External Code Rewriting (40) reduces the external code to a complex purpose format using the syntax and purpose modules. It then writes a set of codes using the derived purpose. This ensures that only the intended and understood purpose of the external code is executed within the enterprise, and unintended function execution does not access the system. Secret code detection (41) detects code that is covertly inserted into data and transmitted packets. Need map matching (42) is a mapped hierarchy of needs and purposes and is referenced to determine whether the external code is suitable for the overall goals of the system. LIZARD Light Client (43) is a lightweight version of the LIZARD program that omits resource-intensive features such as virtual obfuscation (208) and signal mimicker. It performs immediate and real-time threat assessment with minimal computer resource usage for the purpose of a priori threat analysis without using a reference signature database. In the log (44), the energy company system (48) has several log generation points such as standard software error/access logs, operating system logs, monitoring probes, etc. These logs are then fed into the local pattern matching algorithm (46) and CTMP (22) for in-depth and reactive security analysis. In Traffic (45), all internal and external traffic present in the energy company's local pattern matching algorithm (46) is configured with industry standard software that provides an initial security layer such as anti-virus, adaptive firewall, etc. Corrective actions (47) should be initially performed by the local pattern matching algorithm (46) that is understood to address the security issue/risk. This may include blocking ports, transferring files, requesting management functions, etc. The energy company has a system (48) that is isolated from the special security algorithms that transmit logs and traffic information. This occurs because the LIZARD (16), I2 GE (21) and CTMP (22) algorithms are based on the MNSP cloud (9). This separation provides a centralized database model, resulting in a larger pool of security data/trends, allowing for more comprehensive analysis.

도 11에서, 범죄 시스템은 표적 시스템으로 진입할 수 있는 이용 가능한 채널을 탐색한다. 가능한 경우 작은 페이로드를 전달하기 위해 채널을 손상시킨다. 범죄 시스템(49)는 악의적인 범죄자가 악성 프로그램 공격을 파트너 시스템(51)에 공격을 시작하여, 결과적으로 인프라 시스템(54)을 공격하는데 사용된다. 멀웨어 소스(50)는 악의적인 코드 (멀웨어)의 비활성 형식에 대한 컨테이너이다. 일단 코드가 타겟 인프라 시스템(54)에 도달하면(또는 도달하려고 시도 할 때), 멀웨어가 사전 지정 또는 주문형 악성 작업을 수행하도록 활성화된다. 파트너 시스템(51)은 인프라 회사(에너지 회사)와 파트너 회사 간의 계약에 따라 인프라 시스템과 상호 작용한다. 이러한 계약은 공급망 관리 서비스 또는 재고 추적 교환과 같은 일종의 비즈니스 이익을 반영한다. 합의된 서비스를 이행하기 위해 양 당사자는 사전 합의 된 보안 표준에 따라 전자적으로 상호 작용한다. 멀웨어 소스(50)은 범죄 시스템(49)를 실행하는 악의적인 당사자를 대신하여 파트너 시스템에서 침입에 대한 악용 사례를 찾으려고 시도한다. 이런 식으로 멀웨어가 인프라 시스템(54)인 감염의 최종 목표에 도달 할 수 있다. 이 방법으로 파트너 시스템은 멀웨어 소스(50)에서 시작된 프록시 감염 프로세스에 사용되었다. 파트너 시스템(51)과 인프라 시스템(54) 간의 많은 통신 채널 중에서, 이 채널(52)은 멀웨어 소스(50)로부터 파생된 멀웨어에 의해 손상되었다. 채널/ 프로토콜 53: 파트너 시스템(51)과 인프라 시스템(54) 사이의 아직 해결되지 않은 통신 채널을 보여준다. 이러한 채널은 파일 시스템 접속, 데이터베이스 접속, 이메일 라우팅, VOIP 접속 등을 포함할 수 있다. 인프라 시스템(54)은 인프라 DB(57) 및 인프라 컨트롤(56)에 직접 액세스하는 에너지 회사의 운영의 중요한 요소이다. 산업 표준 침입 방어 시스템(55)는 표준 보안 절차로 구현된다. 인프라 컨트롤(Infrastructure Control)(56)은 에너지 관련 장비에 연결되는 디지털 인터페이스이다. 예를 들어, 이는 수력 발전 댐의 수문의 개폐 및 태양 전지판 어레이가 향하는 방향 등을 포함 할 수 있다. 인프라 데이터베이스(57)는 인프라 시스템과 에너지 회사의 핵심 작동과 관련된 민감한 정보를 포함한다. 그러한 정보에는 연락처 정보, 직원 교대 추적, 에너지 장비 문서화 및 청사진 등이 포함될 수 있다.In Fig. 11, the criminal system searches for available channels to enter the target system. If possible, it compromises the channel to deliver a small payload. The criminal system (49) is used by the malicious criminal to initiate a malware attack on the partner system (51), which in turn attacks the infrastructure system (54). The malware source (50) is a container for the inactive form of malicious code (malware). Once the code reaches (or attempts to reach) the target infrastructure system (54), the malware is activated to perform pre-specified or on-demand malicious actions. The partner system (51) interacts with the infrastructure system under a contract between the infrastructure company (energy company) and the partner company. Such contracts reflect some kind of business interest, such as a supply chain management service or an inventory tracking exchange. In order to perform the agreed upon service, the two parties interact electronically according to pre-agreed security standards. The malware source (50) attempts to find exploits for intrusions on the partner system on behalf of the malicious party running the criminal system (49). In this way, the malware can reach its final target of infection, which is the infrastructure system (54). In this way, the partner system was used for the proxy infection process initiated from the malware source (50). Among the many communication channels between the partner system (51) and the infrastructure system (54), this channel (52) was compromised by the malware derived from the malware source (50). Channel/Protocol 53: Shows the communication channels that are not yet resolved between the partner system (51) and the infrastructure system (54). These channels may include file system access, database access, email routing, VOIP access, etc. The infrastructure system (54) is a critical element of the energy company's operations, having direct access to the infrastructure DB (57) and infrastructure control (56). An industry standard intrusion prevention system (55) is implemented as a standard security procedure. The infrastructure control (56) is a digital interface that connects to energy-related equipment. For example, this may include the opening and closing of the sluice gates of a hydroelectric dam and the direction in which the solar panel array faces. The infrastructure database (57) contains sensitive information related to the core operations of infrastructure systems and energy companies. Such information may include contact information, employee shift tracking, energy equipment documentation and blueprints, etc.

도 12에서 손상된 채널(52)는 이용(악용)을 위해 매우 좁은 기회의 창을 제공하므로, 이용 기회를 확장하기 위해 매우 간단한 트로이 목마가 대상 시스템에 업로드된다. 트로이의 목마(58)은 멀웨어 소스(50)에서 유래하여 손상된 채널(52)를 통해 이동하여 인프라 시스템(54)를 목표로 한다. 악의적인 공격을 통해 기회를 열어 고급 실행 멀웨어 페이로드(더 복잡하고 데이터를 훔치는 실제 악성 코드 포함)가 대상 시스템에 설치될 수 있다.In Fig. 12, the compromised channel (52) provides a very narrow window of opportunity for exploitation, so a very simple Trojan horse is uploaded to the target system to extend the window of opportunity. The Trojan horse (58) originates from the malware source (50) and travels through the compromised channel (52) to target the infrastructure system (54). The malicious attack opens the window for an advanced executable malware payload (including the actual malware that is more complex and steals data) to be installed on the target system.

도 13은 트로이 목마가 시스템을 추가로 사용한 후 대규모 실행 가능 멀웨어 패키지가 트로이 목마에 의해 생성된 새로운 열린 채널을 통해 시스템에 안전하게 업로드하는 방법을 보여준다. 고급 실행 가능 멀웨어(59)이 인프라 시스템(54)으로 전송되므로 민감한 데이터베이스(57) 및 컨트롤들(56)로 전송된다. 고급 실행 가능 멀웨어는 트로이 목마의 이전 공격에서 만든 디지털 경로를 사용하여 목적지에 도달한다.Figure 13 shows how a large executable malware package is securely uploaded to the system via a new open channel created by the Trojan after the Trojan has made further use of the system. The advanced executable malware (59) is transmitted to the infrastructure system (54) and thus to sensitive databases (57) and controls (56). The advanced executable malware uses the digital path created by the Trojan in its previous attacks to reach its destination.

도 14는 고급 실행 가능 멀웨어(50)가 IDS를 손상시켜 민감한 인프라 정보 및 컨트롤 포인트를 탐지되지 않는 범죄 시스템에 개별적으로 다운로드 할 수 있는 방법을 도시한다. 해커가 원하는 행동(60), 해커(65)는 합법적으로 인증된 액세스 자격 증명을 가진 회사 직원의 신뢰할 수 있는 자격 증명을 확보했다. 해커는 이러한 자격 증명을 사용하여 직원 전용으로 만 계획된 LAN에 대한 신중하고 눈에 띄지 않는 액세스 권한을 얻으려고 한다. 해커는 전형적인 "너무 적거나 너무 늦은" 보안 대응책의 범위를 벗어나려고 한다. 엔드 포인트 보안 클라이언트가 클라우드 보안 서비스에 전송하는 경우에도, 소급 분석적 보안 솔루션은 초기 침입에서 위협을 제거하고 관리하는 것이 아니라 손상 통제만 실시간으로 관리할 수 있다. 실제 보안 응답(61)을 통해 LIZARD 라이트 클라이언트(엔드 포인트 사용)는 자격 증명 로그인 및 시스템 액세스 사용의 필요성, 기능 및 목적을 명확하게 증명할 수 없다. 이 사용자가 실제로 자격 증명을 의도하고 합법적인 사용자인지 여부는 아직 알 수 없으므로 사용자는 부분적으로 가상화된/매크 환경에 배치된다. 이러한 환경은 사용자의 행동을 분석할 때 실시간으로 중요한 데이터에 대한 노출을 동적으로 변경할 수 있다. 행동 분석(62)은 실제 및 가상 복제된 LAN 인프라(64) 상에 존재하는 요소들과 상호 작용하는 요소들에 기초하여 해커(65)상에서 수행된다. 해커는 손상된 자격 증명(63)으로 에너지 회사의 랩탑(28)에 대한 관리자 액세스를 허용하는 액세스 자격 증명을 얻었으므로, 랩톱으로 구성된 LAN 인프라(64)에 연결된다. 이러한 자격 증명은 암호화되지 않은 전자 메일을 가로 채고 로컬에 자격 증명이 저장된 암호화되지 않은 기업 장치를 훔쳐 가기 때문에 처음부터 손상되었을 수 있다. LAN 인프라(64)는 로컬 네트워크(유선 및/ 또는 무선)를 통해 연결된 일련의 기업 장치를 나타낸다. 이는 프린터, 서버, 태블릿, 전화기 등이 포함될 수 있다. 전체 LAN 인프라는 MNSP 클라우드(9) 내에서 사실상(가상 라우터 IP 할당, 가상 프린터, 가상 서버 등) 재구성된다. 해커는 시스템이 행동 분석(62)을 수행함에 따라 실제 LAN 인프라와 가상 복제 버전의 요소에 노출된다. 이러한 분석 결과가 위험을 나타내면 실제 데이터 및/ 또는 장치가 손상 될 위험을 줄이기 위해 가짜 인프라(실제 인프라와는 대조인)에 대한 해커의 노출이 증가한다. 해커(65)는 손상된 자격 증명(63)에 의해 사용되는 초기 침입을 통해 중요한 정보를 액세스하고 도용하려는 악의적인 행위자이다. 비밀번호 세트(66)를 사용하면 인증 액세스가 세 가지 비밀번호 세트로 지정된다. 비밀번호는 개별적으로 저장되지 않으며 항상 세트로 제공된다. 직원은 스케줄링된 내부 인증 프로토콜 액세스(SIAPA; Scheduled Internal Authentication Protocol Access)의 임시 할당 프로토콜에 따라 세 가지 비밀번호 조합을 입력해야 한다. SIAPA(예정된 내부 인증 프로토콜 액세스) (67)을 사용하면 개별 직원의 로그인 포털에 대한 인증 프로토콜이 매주/ 매월 변경된다. 이러한 프로토콜은 비밀번호 A, B 및 C (인증을 위해 사전 할당됨) 세트에서 비밀번호 A 및 C를 선택할 수 있다. 일관된 기준(매월 월요일 또는 매월 1 일)으로 인증 변경을 예정함으로써, 직원들은 잘못된 긍정 이벤트들(false positive events) (합법적인 직원이 이전 프로토콜을 사용하고 모의 데이터 환경(394)에서 멈추는 경우)을 최소화하는 인증 프로토콜을 전환하는 것에 익숙해 질 것이다. 해커가 손상시킨 새로운 프로토콜의 위험을 상쇄하기 위해 직원은 파괴되고 검토할 수 없기 전에 한 번만 새로운 프로토콜을 볼 수 있다. 첫 번째 및 유일한 보기에는 휴대 전화 등의 생체 인식/ 망막/ SMS와 같은 특수 다중 요소 인증이 필요하다. 직원은 입력해야 하는 세 가지 비밀번호 중 하나를 나타내는 하나 또는 두 개의 문자를 암기해야 한다. 주 1(68)을 참조하면, 비밀번호 A 및 B을 제외하고 아무것도 입력하지 않으면 모의 데이터 환경(394)이 트리거 될 것이다. 주 2(69)를 참조하면, 암호 A 및 C을 제외하고 아무것도 입력하지 않으면 모의 데이터 환경이 트리거된다. 주 3(70)을 참조하면 비밀번호 B 제외하고 아무 것도 입력하지 않으면 모의 데이터 환경이 트리거된다. 주 4(71)을 참조하면,모든 암호를 제외한 아무 것도 입력하지 않으면 모의 데이터 환경이 트리거된다. SIAPA(72)에서는 인증 프로토콜이 비밀로 유지되며 임시 공지 사항에 액세스 할 수 있는 사람만 올바른 프로토콜을 알고 있다. LAN 인프라 가상의 복제(73)에서 해커(65)는 올바른 비밀번호를 생략하지 않고 세 개의 비밀번호를 모두 입력했기 때문에 중요한 데이터나 기능이 없는 MNSP 클라우드(9)의 복제 환경으로 자동 전송된다. 해커가 실제 시스템에 성공적으로 침투했다고 믿는 동안 포렌식 증거와 행동 분석을 수집한다. 사례 시나리오 잘못된 프로토콜 사용'(74)을 보면, 해커는 올바른 프로토콜을 사용하지 않았는데 해커가 특정 암호를 생략하기 위한 특별한 프로토콜을 기대하지는 않았을 뿐만 아니라 그를 알 수 있는 방법이 없었기 때문에 올바른 프로토콜을 사용하지 않았다. 도면 부호 75에서 해커는 합법적인 자격 증명을 도용 할 수 있었고 민감한 데이터를 도용하기 위해 회사 시스템에 로그인하는 것을 의도했다. 기업 내부 관리 부서(76)는 행정 위원회와 기술 지휘 본부로 구성된다. 잠재적으로 악의적인 행동을 모니터링하고 승인/ 차단하기 위한 최상위 계층이다. 직원 B와 D(77)은 범죄자가 아니며(그들은 기업의 이익에 독점적으로 충성한다), 루트 레벨 기능(80) 승인의 세가지 협력을 위한 자질 있는 직원으로서 선정되었다. 직원 A(78)는 세가지 협력 프로세스(80)에 선정되지 않았다. 그가 회사, 기술 경험, 범죄 기록과 함께 업무 경험이 충분하지 않거나 회사 등에 대한 음모를 허용했을 수도 있는 다른 직원과 절친한 친구였기 때문일 수 있다. 직원 C(범죄자)(79)는 악의적인 목적으로 수행되는 루트 레벨의 기능/ 작업에 액세스하려고 시도한다. 이러한 루트 레벨 기능(80)은 개별 루트 레벨 액세스 권한을 가진 3 명의 직원의 동의 및 승인 없이는 수행 할 수 없다. 직원 C가 악의적인 의도가 있는 유일한 직원임에도 불구하고 세 명의 직원 모두 이러한 루트 레벨 기능의 결과에 대해 동등하게 책임진다. 이것은 주의와 회의주의의 문화를 유도하고, 절차의 사전 지식으로 인해 직원들이 처음에는 악의적인 행동을 하지 못하게 한다. 직원 E 및 F(81)는 처음에 요청된 루트 레벨 기능를 수행하거나 승인할 루트 레벨 액세스가 없기 때문에 세가지 협력 프로세스(80)에 대해 선택되지 않았다. 관리 검토(82)는 인공 지연에 의해 주어진 시간을 사용하여 요청된 동작을 검토하고 비판한다. 루트 레벨 동작(83)은 관리 부서에 조치를 검토하고 조치를 명시적으로 승인 또는 차단할 기회를 부여하기 위해 1시간 지연된다. 규칙은 관리 부서가 결정을 내릴 수 없거나 취할 수 없는 경우 기본 행동(승인 또는 거절)을 정의 할 수 있다. 관리 검토(84)는 만장일치의 결정이 성취되지 못한 이유에 대한 추론이 무엇인지 결정한다. 수행된 루트 레벨 동작(85)을 참조하면, 협업 및 감독 모니터링 시스템을 통과하면 루트 레벨 동작이 수행되고 누가 승인을 했는지에 대한 기록을 안전하게 유지 관리한다. 이런 식으로 회사의 최대 이익에 반하는 것으로 드러날 경우 상세한 조사가 시작될 수 있다. 도면 부호 86에서는 3가지 협력 실패(만장일치 결정에 도달하지 않음)로 인해 루트 레벨 동작이 취소된다. 도면 부호 87에서, 루트 레벨 액세스 권한을 가진 선택된 직원 세 명 모두 만장일치로 루트 레벨 동작을 승인했다.   루트 레벨 동작이 실제로 악의적인 경우, 3 명의 직원 모두가 회사에 대한 음모의 일부가 되어야 한다. 이와 같은 가능성은 아직 존재하지 않기 때문에, 루트 레벨 동작은 1시간 동안(83) 지연되며, 관리 부서는 이를 검토할 기회가 주어진다(도면 부호 76 및 82 참조). 도면 부호 88에서, 세 가지 협력을 위해 선택된 자격을 갖춘 직원 중 하나 이상이 요청된 루트 레벨 동작을 거절했다. 따라서 루트 레벨 동작 자체는 취소(89)되고 루트 레벨 동작 (89)은 만장일치 결정에 도달하지 않아 취소되었다. 발전 패턴 데이터베이스 (90)는 이전에 발견되어 처리된 보안 위험들의 패턴을 포함한다. 이러한 패턴들은 현재 멀웨어가 진화할 가능성을 열거한다. 멀웨어 루트 서명(91)은 AST (17)에 제공되어 서명(91)의 반복/ 변형이 형성될 수 있다. 멀웨어의 다형 변이(92)는 I2GE로부터 출력으로서 제공되고 멀웨어 탐지(95)로 전송된다. 인프라 시스템(93)은 물리적으로 인프라의 구내에 속한다. 이 시스템은 일반적으로 수력 발전소, 전력망 등과 같은 인프라 기능을 관리한다. 인프라 컴퓨터(94)는 시스템(93)의 인프라 기능을 수행 할 수 있는 기능 또는 기능의 일부를 수행하는 특정 컴퓨터이다. 멀웨어 탐지 소프트웨어(95)는 컴퓨터 구성의 세 가지 레벨 모두에 배포된다. 여기에는 사용자 영역(97), 커널 영역(99) 및 펌웨어/ 하드웨어 영역(101)이 포함된다. 이는 3 가지 레벨 각각에 독점적으로 배포되는 LIZARD 라이트 에이전트에서 수행되는 멀웨어 탐지 배포와 일치한다. 발전 경로(34)를 통해 반복된 멀웨어(96) 형태는 드라이버(커널 영역(99) 내에 존재)에서 발견된다. 사용자 영역(97)은 주류 개발자 어플리케이션들을 위한 것이다. 멀웨어에 가장 쉽게 침투 할 수 있는 공간이며 멀웨어를 탐지하고 격리 할 수 있는 가장 용이한 공간이다. LIZARD 라이트는 모든 사용자 공간 활동을 효율적으로 모니터링한다. 사용자 영역 내의 어플리케이션(98)에는 마이크로 소프트 오피스(Microsoft Office), 스카이프(Skype), 퀵켄(Quicken) 등과 같은 프로그램이 포함될 수 있다. 커널 영역(99)은 애플(Apple), 마이크로소프트(Microsoft) 및 리눅스(Linux) 재단과 같은 운영 체제 공급 업체가 대부분 유지 관리한다. 사용자 영역보다 침투하기가 더 어렵지만 각 인프라가 커널 수정을 거치지 않는 한 책임은 주로 공급 업체에 속한다. LIZARD 라이트는 모든 커널 활동(레지스트리 변경을 포함하는 (마이크로소프트 운영체제(Microsoft OS)), 메모리 관리, 네트워크 인터페이스 관리 등)을 효율적으로 모니터링한다. 드라이버(100)는 인프라 컴퓨터(94)가 주변 장치 및 하드웨어(마우스, 키보드, 지문 스캐너 등)와 상호 작용할 수 있게 한다. 펌웨어/ 하드웨어 영역(101)은 펌웨어 / 하드웨어 공급 업체에서 전적으로 유지 관리된다. 멀웨어가 하드웨어에 직접 물리적으로 액세스하지 않고 감염되기는 매우 어렵다(즉, 오래된 BIOS 칩을 마더 보드에서 제거하고 새로운 BIOS 칩을 납땜한다). LIZARD 라이트는 하드웨어 구성에 따라 일부 펌웨어 활동을 모니터링한다. BIOS(102)(일종의 펌웨어)는 동작 시스템이 구축되는 소프트웨어의 제 1 층이다. 공공 인프라(103)는 알 수 없거나 잠재적으로 손상된 디지털 인프라(ISP 라우터, 광 케이블 등)를 말한다. 에이전트(104)는 공공의 인프라에 심어져 있고 신뢰 플랫폼 데이터베이스에 저장된 알려진 설명(포트, 프로토콜 유형 등)을 사용하여 알려진 콜백 채널들을 모니터링한다. 에이전트는 심장 박동 신호들(Heartbeat Signals)을 확인하고 멀웨어 소스에 대한 영향력을 얻기 위해 신뢰 플랫폼에 알린다. 자동 검색 및 라이트 클라이언트 설치(105)를 사용하면 MNSP(9)의 LIZARD 클라우드가 LIZARD에 신호 응답(악수)을 제공하지 않는 엔드 포인트 시스템(즉, 랩탑)을 감지한다. 엔드 포인트는 발견 시 동기화되어 I2CM(24)를 통해 분류된다. 따라서 LIZARD 클라우드는(SSH 원격 루트 셸을 통해) Lizard 라이트 클라이언트(43)이 설치/ 활성화되지 않았음을 감지하고 루트 셸을 사용하여 클라이언트(43)의 설치를 강제 실행하고 올바르게 활성화되는지 확인한다. 라이트 클라이언트(43)가 입력 디바이스 상에 설치되지 않았기 때문에 멀웨어(106A)는 초기에 들어간다. 라이트 클라이언트(43)는 LIZARD 클라우드가 포함된 MNSP를 통해 모든 들어오고 나가는 트래픽이 라우팅되는 것은 물론, 시스템에서 가능한 거의 모든 인스턴스에 설치된다. 초기의 익스플로잇(107)을 사용하면 익스플로잇의 초기 실체가 탐지되고 잠재적으로 차단되어 비밀 콜백 채널(106B)를 설정할 수 있다. 채널(106B)은 멀웨어(106B)가 기지와 개별적으로 통신할 수 있는 모호한 통신 경로이다. 이는 합법적 인 http 또는 https 어플리케이션 트래픽처럼 보이도록 신호를 마스킹하는 것을 포함 할 수 있다. 광범위한 공급 업체 (108)는 공공 인프라(103)에서 에이전트(104)를 두기 위해 소프트웨어, 하드웨어, 방화벽, 서비스, 재정 및 중요한 인프라에 대한 비밀 액세스와 같은 중요한 자원을 제공한다. 심박 신호는 콜백 채널(106B) 특정 크기 및 빈도로 멀웨어를 차단하고 숨겨진 콜백 채널을 통해 근원/ 충성도(origin/loyalty) 소스로 연결된다. 신호는 멀웨어 소스(50)가 장래의 익스플로잇 및 조정된 공격을 결정할 수 있도록 하는 상태/ 능력을 나타낸다. 이러한 멀웨어 소스는 악의적 의도가 있는 해킹 기능이 있는 조직을 나타낸다; 블랙 햇 해커 연합체 일 수도 있고 국가 주 정부 일 수도 있다. 멀웨어 (106A) 및 심박 신호(채널 106B 내부)는 MNSP 클라우드(9)에서 실행되는 LIZARD에 의해 탐지되며 모든 수신 및 발신 트래픽은 VPN 터널을 통해 MNSP 클라우드/ Lizard를 통해 라우팅된다.Figure 14 illustrates how advanced executable malware (50) can compromise an IDS to individually download sensitive infrastructure information and control points to the criminal system undetected. The hacker's desired action (60), the hacker (65) has obtained the trusted credentials of a company employee with legitimately authorized access credentials. The hacker intends to use these credentials to gain discreet and unobtrusive access to a LAN intended solely for employees. The hacker is attempting to go beyond the scope of typical "too little, too late" security countermeasures. Even when the endpoint security client forwards to a cloud security service, retroactive analytical security solutions can only manage damage control in real time, not eliminate and manage threats at the initial intrusion. The actual security response (61) does not allow the LIZARD light client (using the endpoint) to clearly demonstrate the necessity, function and purpose of the credential login and system access. The user is placed in a partially virtualized/mac environment, as it is not yet known whether this user actually intended to use the credentials and is a legitimate user. This environment can dynamically change the exposure to critical data in real time as it analyzes the user's behavior. The behavioral analysis (62) is performed on the hacker (65) based on elements that interact with elements existing on the physical and virtual replicated LAN infrastructure (64). The hacker gains access credentials that allow him administrative access to the energy company's laptop (28) with compromised credentials (63), and thus connects to the LAN infrastructure (64) comprised of the laptop. These credentials may have been compromised from the beginning as they intercept unencrypted e-mail and steal unencrypted corporate devices that have credentials stored locally. The LAN infrastructure (64) represents a set of corporate devices connected via a local network (wired and/or wireless). This may include printers, servers, tablets, phones, etc. The entire LAN infrastructure is virtually reconfigured (virtual router IP assignments, virtual printers, virtual servers, etc.) within the MNSP cloud (9). The hacker is exposed to elements of the physical LAN infrastructure and a virtual replicated version of it as the system performs the behavioral analysis (62). If these analysis results indicate a risk, the exposure of hackers to the fake infrastructure (as opposed to the real infrastructure) is increased to reduce the risk of compromising real data and/or devices. Hackers (65) are malicious actors who seek to access and steal sensitive information through an initial breach using compromised credentials (63). Using password sets (66), authentication access is assigned to a set of three passwords. The passwords are not stored individually and are always provided as a set. Employees are required to enter a combination of three passwords according to a temporary assignment protocol for Scheduled Internal Authentication Protocol Access (SIAPA). Using Scheduled Internal Authentication Protocol Access (SIAPA) (67), the authentication protocol for an individual employee's login portal changes on a weekly/monthly basis. This protocol may select passwords A and C from a set of passwords A, B, and C (pre-assigned for authentication). By scheduling authentication changes on a consistent basis (e.g., every Monday or the first of each month), employees will become accustomed to switching authentication protocols, which minimizes false positive events (where a legitimate employee uses the old protocol and gets stuck in the mock data environment (394)). To offset the risk of a hacker compromising the new protocol, employees will only be able to see the new protocol once before it is destroyed and cannot be reviewed. The first and only view will require a special multi-factor authentication such as biometrics/retina/SMS on a mobile phone. Employees will be required to memorize one or two characters representing one of the three passwords they will be required to enter. Referring to Note 1 (68), enteringnothing but passwords A and B will trigger the mock data environment (394). Referring to Note 2 (69), entering nothingbut passwords A and C will trigger the mock data environment. Referring to Note 3 (70), entering nothingbut password B will trigger the mock data environment. Referring to case 4 (71), if nothing is entered exceptall passwords, the simulated data environment is triggered. In SIAPA (72), the authentication protocol is kept secret and only those who have access to the temporary notice know the correct protocol. In the LAN infrastructure virtual replication (73), the hacker (65) is automatically transferred to the replication environment of the MNSP cloud (9) which has no critical data or functions because he entered all three passwords without omitting the correct password. While the hacker believes that he has successfully penetrated the real system, forensic evidence and behavioral analysis are collected. In the case scenario 'Incorrect Protocol Usage' (74), the hacker did not use the correct protocol because the hacker did not expect a special protocol to omit a specific password and there was no way for him to know. In the drawing symbol 75, the hacker was able to steal legitimate credentials and intended to log into the company system to steal sensitive data. The corporate internal control department (76) consists of the administrative committee and the technical command center. It is the top layer to monitor and approve/block potentially malicious behavior. Employees B and D (77) are not criminals (they are exclusively loyal to the interests of the company) and are selected as qualified employees for the three collaborations for root level function (80) approval. Employee A (78) is not selected for the three collaboration processes (80). This may be because he does not have enough work experience with the company, technical experience, criminal record, or because he is a close friend of another employee who may have allowed the conspiracy against the company, etc. Employee C (the criminal) (79) attempts to access the root level functions/tasks which are performed for malicious purposes. These root level functions (80) cannot be performed without the consent and approval of the three employees who have individual root level access. Although Employee C is the only employee with malicious intent, all three employees are equally responsible for the results of these root level functions. This induces a culture of caution and skepticism and prevents employees from taking malicious actions in the first place due to their prior knowledge of the procedures. Employees E and F (81) were not initially selected for the three collaborative processes (80) because they did not have root level access to perform or approve the requested root level function. The management review (82) uses the time given by the artificial delay to review and critique the requested action. The root level action (83) is delayed by one hour to give management an opportunity to review the action and explicitly approve or block the action. The rules can define the default action (approval or rejection) if management is unable or unwilling to make a decision. The management review (84) determines what the reasoning is for why a unanimous decision was not achieved. Referring to the performed root level action (85), if it passes the collaborative and supervisory monitoring system, the root level action is performed and a secure record of who approved it is maintained. In this way, a detailed investigation can be initiated if it is found to be contrary to the best interests of the company. At drawing symbol 86, the root level action is canceled due to three collaborative failures (unanimous decision not reached). At reference numeral 87, all three selected employees with root level access have unanimously approved the root level action. If the root level action is indeed malicious, then all three employees must be part of a conspiracy against the company. Since this possibility does not yet exist, the root level action is delayed for one hour (83) and management is given an opportunity to review it (see reference numerals 76 and 82). At reference numeral 88, at least one of the three selected qualified employees for collaboration has rejected the requested root level action. Therefore, the root level action itself is canceled (89) and the root level action (89) is canceled as a unanimous decision was not reached. The evolution pattern database (90) contains patterns of previously discovered and addressed security risks. These patterns enumerate the likelihood that the current malware may evolve. The malware root signature (91) is provided to the AST (17) so that iterations/variations of the signature (91) can be formed. The polymorphic variants (92) of the malware are provided as output from the I2 GE and are sent to the malware detection (95). The infrastructure system (93) is physically located within the premises of the infrastructure. This system typically manages infrastructure functions such as hydroelectric power plants, power grids, etc. The infrastructure computer (94) is a specific computer that performs a function or part of a function that can perform the infrastructure function of the system (93). The malware detection software (95) is deployed at all three levels of the computer configuration. This includes the user space (97), the kernel space (99), and the firmware/hardware space (101). This is consistent with the malware detection deployment performed in the LIZARD light agent that is exclusively deployed at each of the three levels. The malware (96) form that has been repeated throughout the evolution path (34) is found in the driver (which resides within the kernel space (99)). The user space (97) is for mainstream developer applications. This is the space where malware can most easily penetrate and the space where malware can be detected and isolated. LIZARD Lite efficiently monitors all user space activities. Applications (98) within the user space may include programs such as Microsoft Office, Skype, Quicken, etc. The kernel space (99) is mostly maintained by operating system vendors such as Apple, Microsoft, and the Linux Foundation. It is more difficult to penetrate than the user space, but unless each infrastructure undergoes kernel modifications, the responsibility primarily lies with the vendor. LIZARD Lite efficiently monitors all kernel activities (including registry changes (Microsoft OS), memory management, network interface management, etc.). The drivers (100) allow the infrastructure computer (94) to interact with peripherals and hardware (mouse, keyboard, fingerprint scanner, etc.). The firmware/hardware space (101) is entirely maintained by the firmware/hardware vendors. It is very difficult for malware to infect hardware without direct physical access to it (i.e. removing the old BIOS chip from the motherboard and soldering a new BIOS chip). LIZARD Lite monitors some firmware activities depending on the hardware configuration. BIOS (102) (a type of firmware) is the first layer of software on which the operating system is built. Public infrastructure (103) refers to unknown or potentially compromised digital infrastructure (ISP routers, fiber optic cables, etc.). Agent (104) is embedded in the public infrastructure and monitors known callback channels using known descriptions (ports, protocol types, etc.) stored in the Trust Platform database. Agent checks for Heartbeat Signals and notifies Trust Platform to gain leverage on malware sources. Using automatic discovery and Light Client installation (105), LIZARD Cloud of MNSP (9) detects endpoint systems (i.e. laptops) that do not provide a signal response (handshake) to LIZARD. Endpoints are synchronized upon discovery and classified via I2 CM (24). Therefore, the LIZARD cloud detects (via the SSH remote root shell) that the Lizard light client (43) is not installed/activated and uses the root shell to force the installation of the client (43) and verify that it is properly activated. Since the light client (43) is not installed on the input device, the malware (106A) gets an initial entry. The light client (43) is installed on nearly every instance possible on the system, with all incoming and outgoing traffic routed through MNSP with the LIZARD cloud. Using the initial exploit (107), the initial entity of the exploit is detected and potentially blocked, allowing the establishment of a covert callback channel (106B). The channel (106B) is an obscure communication path through which the malware (106B) can communicate with the base privately. This may include masking signals to appear as legitimate http or https application traffic. A wide range of vendors (108) provide critical resources such as software, hardware, firewalls, services, finances and secret access to critical infrastructure to place agents (104) in the public infrastructure (103). The heartbeat signal is used to block malware at a specific size and frequency on the callback channel (106B) and is connected to the origin/loyalty source via a hidden callback channel. The signal indicates the status/capability of the malware source (50) to determine future exploits and coordinated attacks. This malware source indicates an organization with malicious intent and hacking capabilities; it could be a black hat hacker syndicate or a nation-state government. The malware (106A) and the heartbeat signal (within channel 106B) are detected by LIZARD running in the MNSP cloud (9) and all incoming and outgoing traffic is routed through the MNSP cloud/Lizard via a VPN tunnel.

도 22 내지 도 23은 외부 코드 재작성이 잠재적으로 탐지되지 않는 악의적인 공격을 완화하기 위해 외부 코드를 처음부터 구문적으로 재생산하는 방법을 나타내는 도면이다. 조합 방식(113)은 선언된 목적(112A)(이용 가능한 경우, 기업 정책 (147)에 따라 선택 사항 일 수 있음)과 파생된 목적(112B)을 비교 및 매치한다. 목적 모듈 (36)을 사용하여 복합적 목적 형식을 조작하고 결과 일치 또는 불일치 사례 시나리오를 달성한다. 파생된 목적(112B)으로 니드 맵 매칭 유지의 계층 구조는 모든 기업의 요구를 관할권으로 유지하기 위한 계층적 구조를 유지한다. 따라서 코드 블록의 목적은 관할 구역 지향적 니드 맵(114)의 공석에 따라 정의되고 정당화 될 수 있다. 입력 목적(115)는 재귀적 디버깅(119) 프로세스(목적 및 구문 모듈을 활용하여)에 대한 입력이다. 여러 입력(즉, 목적)을 병합하지 않으며, 별도의 병렬 인스턴스가 목적 입력마다 초기화된다. 최종 보안 확인 (116)은 구문(35) 및 목적(36) 모듈을 활용하여 프로그래밍에서 악용 지점을 보호하기 위한 다목적 '무결성' 검사('sanity' check)를 수행하고 최종 출력(117)을 VPN/ 엑스트라 넷(12)으로 전송한다.Figures 22-23 are diagrams illustrating how external code is syntactically regenerated from scratch to mitigate potentially undetected malicious attacks. The composite method (113) compares and matches the declared purpose (112A) (which may be optional depending on enterprise policy (147) if available) with the derived purpose (112B). The purpose module (36) is used to manipulate the composite purpose format and achieve the resulting match or mismatch case scenario. The hierarchy of the need map matching maintenance with the derived purpose (112B) maintains a hierarchical structure to keep all enterprise needs jurisdictional. Thus, the purpose of a code block can be defined and justified based on the vacancies in the jurisdiction-oriented need map (114). The input purpose (115) is the input to the recursive debugging (119) process (utilizing the purpose and syntax modules). Multiple inputs (i.e., purposes) are not merged, and a separate parallel instance is initialized for each purpose input. The final security check (116) performs a multi-purpose 'sanity' check to protect against exploit points in programming by utilizing the syntax (35) and purpose (36) modules and transmits the final output (117) to the VPN/extranet (12).

도 24 및 도 25는 재귀적 디버깅(119)이 코드 세그먼트를 통해 버그를 테스트하고 가능한 경우 버그 수정을 적용(솔루션(129))을 반복하는 방법을 보여준다. 버그가 지속되면 전체 코드 세그먼트가 원본 (외부) 코드 세그먼트 (121)로 대체된다(123). 원래 코드 세그먼트에는 가상의 난독화 및 행동 분석과 같은 추가 보안 계층을 용이하게 하기 위해 태그가 추가된다. 외부 코드 120의 경우 코드의 원래 상태는 코드 재 작성을 위해 목적(36) 및 구문(35) 모듈에 의해 해석된다. 외부 코드(120)은 재 작성된 버전에 영구 버그가 있었기 때문에 원본 (외부) 코드 세그먼트를 설치해야 하는 경우 디버거에 의해서 직접 참조된다. 재 작성된 코드(122) 세그먼트(121)는 가상 런타임 환경(131)에 의해 테스트되어 코딩 버그(132)를 검사한다. 이러한 환경(131)은 기능과 클래스와 같은 코드 세그먼트(121)를 실행하고 런타임 오류(구문 오류, 버퍼 오버 플로우, 잘못된 함수 호출 등)를 확인한다. 모든 코딩 오류는 수정을 위해 처리된다. 코딩 버그(132)로, 가상 런타임 환경에서 생성된 에러는 범위 및 유형으로 정의된다. 모든 관련 코딩 세부 정보는 솔루션을 용이하게 하기 위해 제공된다. 목적 얼라인먼트(124)에서, 코딩 버그(132)에 대한 잠재적 솔루션은 그러한 기능들 및 클래스들의 명시된 목적으로부터 코드를 재도입하여 기초한다. 코딩 버그의 범위는 이러한 버그를 피하기 위해 대체 형식으로 다시 작성된다. 잠재적 솔루션이 출력되고 솔루션이 남아 있지 않으면 해당 코드 세그먼트(121)에 대한 코드 재 작성이 취소되고 원래 코드 세그먼트(외부 코드로부터 직접적으로)가 최종 코드 세트에서 사용된다. 전형적으로, 코딩 버그(132)는 코딩 솔루션 (138)을 루프로 여러 번 수신 할 것이다. 모든 코딩 솔루션이 버그(132)를 해결하여 소진된 경우; 솔루션은 몰수되고(137) 원래 외부 코드 세그먼트(133)가 사용된다. 코드 세그먼트(121)는 가상 난독화 및 행동 분석과 같은 추가적인 보안 조치의 결정을 용이하게 하기 위해 외부로 태그(Tagged) 될 수 있다(136). 예를 들어, 재 작성된 코드 블록에 높은 수준의 외부 코드 세그먼트가 포함되어 있으면 모의 데이터 환경(394)에 배치되는 경향이 있다. 코드 세그먼트 캐싱 (130)에서는 개별 코드 세그먼트(기능 / 클래스)가 여러 재 작성 작업에 걸쳐 캐싱되고 재사용되어 LIZARD 클라우드 자원 효율성이 향상된다. 모든 트래픽은 클라우드에서 VPN을 통해 중앙 집중화되므로 이 캐시는 높은 활용도를 유지한다. 재 작성 코드 세그먼트 제공자(128)에 의해, 이전에 재기록된 코드 세그먼트 (121)가 제공되어, 코딩 버그가 각각의 솔루션 적용(129)을 가질 수 있다.Figures 24 and 25 show how recursive debugging (119) iterates through code segments testing for bugs and applying bug fixes (solutions (129)) when possible. If a bug persists, the entire code segment is replaced (123) with the original (external) code segment (121). The original code segment is tagged to facilitate additional layers of security such as virtual obfuscation and behavioral analysis. For the external code 120, the original state of the code is interpreted by the purpose (36) and syntax (35) modules for code rewriting. The external code (120) is directly referenced by the debugger in case the original (external) code segment needs to be installed because the rewritten version had a persistent bug. The rewritten code (122) segment (121) is tested by the virtual runtime environment (131) to check for coding bugs (132). This environment (131) executes the code segments (121) such as functions and classes and checks for runtime errors (syntax errors, buffer overflows, incorrect function calls, etc.). All coding errors are processed for correction. As a coding bug (132), errors generated in the virtual runtime environment are defined by scope and type. All relevant coding details are provided to facilitate the solution. In the goal alignment (124), potential solutions for the coding bug (132) are based on re-introducing code from the stated purpose of such functions and classes. The scope of the coding bug is rewritten in an alternative form to avoid such bugs. When the potential solutions are output and no solutions remain, the code re-write for that code segment (121) is canceled and the original code segment (directly from external code) is used in the final code set. Typically, a coding bug (132) will receive coding solutions (138) multiple times in a loop. When all coding solutions are exhausted to resolve the bug (132); The solution is forfeited (137) and the original external code segment (133) is used. The code segment (121) can be tagged as external (136) to facilitate the determination of additional security measures such as virtual obfuscation and behavioral analysis. For example, if a rewritten code block contains a high level of external code segments, it tends to be deployed in the mock data environment (394). In code segment caching (130), individual code segments (functions/classes) are cached and reused across multiple rewrite jobs, thereby improving LIZARD cloud resource efficiency. Since all traffic is centralized via VPN in the cloud, this cache maintains high utilization. Previously rewritten code segments (121) are provided by the rewritten code segment provider (128) so that coding bugs can have their respective solution applications (129).

도 26은 목적 관할을 검증하는 니드 맵 매칭(114)의 내부 동작을 도시한다. LIZARD 클라우드 및 라이트는 엔터프라이즈 관할 구역의 계층적인 맵 (150)을 참조한다. 이것은 코드/ 기능 목적을 정당화하고 유효한 정당화가 없는 경우 이러한 코드/ 기능을 잠재적으로 차단하기 위해 수행된다. 입력 목적 (139)이 요구되거나(목적 모듈 (35)을 통해) 유도되는지 여부에 관계없이, 니드 맵 매칭(114)은 기업 시스템 내에서 수행 할 코드/ 기능에 대한 정당성을 검증한다. 계층적인 맵(150)의 마스터 사본은 MNSP(9)의 LIZARD 클라우드에 각 등록된 기업의 계정에 저장된다. 니드 맵 매칭(114) 내의 필요 인덱스(145)는 마스터 카피를 참조함으로써 계산된다. 그런 다음 사전 최적화된 필요 인덱스 (계층 구조 자체는 아님)는 액세스 가능한 모든 엔드 포인트 클라이언트에 분산된다. 니드 맵 매칭은 시스템의 가장 적합한 필요성에 대한 필요 요청(140)을 받는다. 해당 출력은 적절한 필요를 나타내는 복합적 목적 형식 (325)이다. 필요 기준 + 우선 순위 필터링(143)으로, 기업 정책(147) 내에서 적절한 필요가 검색된다. 이러한 정책(147)은 각 관할권이 가질 수 있는 필요 타입 및 범위를 결정한다. 필요는 이메일 서신, 소프트웨어 설치 요구 등으로부터 다양할 수 있다. 정책(147)은 기업에 따라 필요 우선 순위가 무엇인지를 결정한다. 각 지점과 관련된 정의에 따르면 요구 사항은 해당 부서와 관련된다. 이런 방법으로 권한 체크가 수행 된다. 예: HR이 모든 직원 CV를 다운로드하라는 요청을 승인한 니드 맵 매칭은 직원 성능에 따라 매년 검토해야 한다. 초기 파싱(Parsing)(148)을 통해 각 관할 지점은 필요한 참조를 위해 다운로드 된다. 지점 수요 계산(149)과 함께 필요는 각 부서와 관련된 정의에 따라 해당 부서와 연관 된다. 이런 방법으로 권한 체크가 수행 된다. 예: HR이 모든 직원 CV를 다운로드하라는 요청을 승인한 것은 계층적인 맵(150) 에 정의된 관할 구역에 따라 직원 성과에 대한 매년 검토가 이루어지기 때문이다.Figure 26 illustrates the internal workings of the need map matching (114) for verifying the purpose jurisdiction. The LIZARD cloud and Lite reference the hierarchical map (150) of the enterprise jurisdiction. This is done to justify the code/function purpose and potentially block such code/function if there is no valid justification. Regardless of whether the input purpose (139) is required or derived (via the purpose module (35)), the need map matching (114) verifies the justification for the code/function to be performed within the enterprise system. A master copy of the hierarchical map (150) is stored in the LIZARD cloud of the MNSP (9) in the account of each registered enterprise. The need index (145) within the need map matching (114) is computed by referencing the master copy. The pre-optimized need index (not the hierarchy itself) is then distributed to all accessible end point clients. The need map matching receives a need request (140) for the most appropriate need of the system. The output is a composite purpose format (325) representing the appropriate need. With the Need Criteria + Priority Filtering (143), the appropriate needs are searched within the corporate policy (147). The policy (147) determines the type and scope of needs that each jurisdiction can have. The needs can range from email correspondence, software installation needs, etc. The policy (147) determines what the needs priority is for the company. According to the definition associated with each branch, the needs are associated with the department. In this way, the authorization check is performed. For example: The need map matching where HR approved the request to download all employee CVs is to be reviewed annually based on employee performance. Through the initial parsing (148), each jurisdiction branch is downloaded for the required reference. Along with the branch demand calculation (149), the needs are associated with the departments based on the definition associated with each department. In this way, the authorization check is performed. For example: The HR approved the request to download all employee CVs because the annual review of employee performance is performed based on the jurisdictions defined in the hierarchical map (150).

사이버 공간에서 비밀 동작을 통해 기계 비밀 정보(MACINT) 및 응징MACINT and retaliation through covert operations in cyberspace

도 27은 지능화된 정보 관리, 뷰잉 및 컨트롤을 도시한다. 집합(152)은 일반적 레벨 기준을 사용하여 중요하지 않고 중복되는 정보를 필터링하고 여러 플랫폼에서 정보 스트림을 병합하고 태그를 지정한다. 구성 및 배치 서비스(153)는 올바른 보안 구성 및 연결 설정을 갖춘 새로운 기업 자산(컴퓨터, 랩톱, 휴대 전화)을 배치하기 위한 인터페이스이다. 장치가 추가되고 설치된 후 관리 피드백 컨트롤을 중간자로 사용하여 관리 콘솔을 통해 조정할 수 있다. 또한 이 서비스는 새로운 고객/ 클라이언트 사용자 계정의 배치를 관리한다. 이러한 배치에는 하드웨어와 사용자 계정, 인터페이스 사용자 정의, 고객/ 클라이언트 변수 목록(예: 비즈니스 타입, 제품 타입 등)이 포함될 수 있다. 관할 구역에 의한 분리(154)에 따라, 태그가 붙은 정보 풀은 관리 콘솔 사용자의 관할권에 따라 배타적으로 분리된다. 위협으로부터 분리(155)에서 정보는 개별 위협에 따라 구성된다. 모든 타입의 데이터는 위협(자세한 정보가 추가됨)과 상관되거나 제거된다. 지능적 맥락화(Intelligent Contextualization)(156)라고 표시된 프로세스의 단계에서 나머지 데이터는 아일랜드의 클러스터처럼 보이며 각 아일랜드는 사이버 보안 위협이 된다. 플랫폼 간 상호 관계가 보안 분석을 성숙시키기 위해 만들어진다. 위협 데이터 패턴을 이해하기 위해 역사적 데이터에 액세스하고(LIZARD(16)와 반대로 I2GE(21)에서) CTMP는 비판적 사고 분석에 사용된다. 위협 딜레마 관리(157)에서 사이버 보안 위협은 조감도(큰 그림)에서 감지된다. 이러한 위협을 그래픽으로 표현하기 위해 관리 콘솔로 전달된다. 위협 메커니즘과 관련된 계산된 측정 값이 마침내 여러 플랫폼에서 통합되므로; 보다 정보에 입각한 위협 관리 결정을 자동으로 수행할 수 있다. 자동화된 컨트롤(Automated Controls)(158)은 MNSP(9), TP, 3PS의 관리 관련 컨트롤을 제어하는 알고리즘 액세스를 나타낸다. 관리 피드백 제어(159)는 정책 작성, 법의학, 위협 조사 등을 용이하게 하는데 사용할 수 있는 서비스를 기반으로 하는 모든 MNSP 클라우드, 신뢰 플랫폼(10), 추가적인 제3 서비스 (Third Party Services, 3PS)의 높은 레벨 제어를 제공한다. 이러한 관리 컨트롤은 결국 적절한 사용자 지정 가능한 비주얼 및 프리젠테이션 효율성으로 관리 콘솔 (MC)에 표시된다. 이를 통해 단일 인터페이스에서 직접 전체 시스템(MNSP, TP, 3PI)을 효율적으로 컨트롤하고 조작할 수 있어 필요에 따라 세부 사항을 확대 할 수 있다. 메뉴얼 제어(160)는 MNSP(9), TP, 3PS의 관리 관련 제어 컨트롤에 대한 인간의 접근을 나타낸다. 직접 관리(Direct Management)(161)는 메뉴얼 제어를 활용하여 휴먼 인터페이스를 제공한다. 카테고리 및 관할 구역(162)에서 관리 콘솔의 사용자는 자신의 관할 구역 및 정보 카테고리 액세스 범위를 정의하는 로그인 자격 증명을 사용한다. 모든 잠재적인 데이터 벡터(163)는 동작 중인 데이터, 휴식 중인 데이터 및 사용 중인 데이터이다. 맞춤형 시각화(164)는 회계, 재무, 인사, IT, 법률, 보안/ 감찰관, 개인 정보 보호/ 공개, 노동 조합 등 다양한 기업 부서 및 이해 관계자(각 부서의 임원, 관리자, 임원)를 위한 것이다. 통합된 단일 관점은 모니터링, 로깅, 리포팅, 이벤트 상관, 경고 처리, 정책/ 룰 세트 생성, 시정 조치, 알고리즘 튜닝, 서비스 권한 설정(신규 고객 / 수정), 제3 서비스(타사 서비스 제공 업체 및 공급 업체의 보고서 및 경고/ 로그 수신 등)뿐만 아니라 신뢰 플랫폼 사용과 같은 모든 잠재적 능력의 단일 관점이다. 보안의 모든 측면에 대한 통합적 관점(165)은 경계, 기업, 데이터 센터, 클라우드, 이동식 미디어, 모바일 장치 등을 나타내는 비주얼 모음이다. 사이버 보안 팀(167)은 자격을 갖춘 전문가 팀으로 여러 시스템의 활동과 상태를 모니터한다. 지능형 정보 처리 및 인공 지능(AI) 결정이 이루어지고 있기 때문에 적은 수의 경험으로 적은 인력을 고용함으로써 비용을 절감 할 수 있다. 팀의 주요 목적은 대규모 분석 지점을 수행하는 동안 시스템이 원하는 기준에 따라 성숙하고 진행 중임을 확인하는 대체 단계가 되는 것이다. 행동 분석(168)은 100% 모의 데이터 환경(Mock Data Environment)(394)에 있는 동안 멀웨어의(169) 존재 상태 및 수행된 행동을 관찰한다. 멀웨어가 위조 데이터(170)와 상호 작용하는 동안 행동 분석은 활성화 시간(예: 사무실이 폐쇄된 일요일에만 활성화), 파일 액세스 요청, 요청된 루트 관리 기능 등에서 관찰된 패턴을 기록한다. 멀웨어(169)는 해커(177)에 의해 심어졌다. 해커가 목표 시스템에 멀웨어를 성공적으로 심어 놓은 것으로 믿는 동안, 멀웨어는 조용히 전송되어 100% 모의 데이터 환경(394)에 격리된다. 위조 데이터(170)에서 멀웨어(169)는 가짜 데이터의 사본을 디지털로 소유하고 있다. 이것은 데이터가 실제적이고, 확장되어 해커(177)이 실제 데이터인지 또는 가짜 데이터인지를 알지 못하는 상황에서 이를 수행한다. 멀웨어가 가짜 데이터를 해커에게 보내려고 하면 발신 신호는 실제 해커에 대한 멀웨어의 예상과는 반대로 가짜 해커(174)가 수신하도록 경로가 변경된다. 해커 인터페이스(171)을 사용하면(구문적으로 LIZARD 시스템에 속하는) 구문(35) 및 목적(36) 모듈은 멀웨어(169)의 코드 구조를 수신한다. 이 모듈은 멀웨어의 내부 구조를 역설계하여 해커 인터페이스를 출력한다. 이 인터페이스는 멀웨어와 해커간에 사용되는 통신 방법, 멀웨어가 해커에 대해 갖는 기대치(예: 명령을 수신하는 등) 및 해커가 멀웨어에 대한 기대치(예: 상태 보고서 등)를 자세히 설명한다. 이러한 정보는 가짜 해커(174) 및 위조된 멀웨어(172)가 가상화된 환경(173) 내에서 에뮬레이트 되도록 한다. 행동 분석(168)이 멀웨어(169)의 행동을 적절히 연구하면, MNSP(9)의 신호 모방 기능은 해커(177)처럼 작동하는 프로그램을 에뮬레이트할 수 있다. 이것은 실제 멀웨어(169), 위조 데이터(170) 및 가짜 해커 (174) 사이에 존재하는 통신 프로토콜을 포함한다. 에뮬레이트된 신호 응답(175)를 사용하면 가상화된 가짜 해커(174)가 실제 멀웨어(169)에 응답 신호를 전송하여 실제 작업에 성공했거나 실패했다는 인상을 준다. 그러한 신호에는 멀웨어 행동에 대한 명령 및/ 또는 정보 상태 업데이트에 대한 요청이 포함될 수 있다. 이것은 멀웨어의 다음 행동 패턴을 관찰하기 위해 추가 행동 분석 연구에 사용된다. 조사가 끝나면 멀웨어가 포함된 모의 데이터 환경(394)은 동결하거나 파괴할 수 있다. 에뮬레이션된 응답 코드(176)을 사용하면 해커는 실제 멀웨어의 동작/ 상태와 상관 관계가 없는 가짜 응답 코드를 받는다. 원하는 응징 전술에 따라 가짜 오류 코드 또는 가짜 성공 코드를 보낼 수 있다. 가짜 오류 코드는 해커에게 악성 코드가 작동하지 않는다는 인상을 주며(실제로는 그렇게 할 때) 쓸데없는 디버깅 탄젠트에 해커의 시간을 낭비한다. 성공적인 오류 코드는 해커가 새로운 형태의 멀웨어를 만들려고 하는 경향을 줄이지만, 대신 현재의 오류 코드와 가능한 증분 개선에 집중한다. 이러한 멀웨어는 이미 LIZARD에 의해 손상되고 이해되었으므로 해커는 성공한 것으로 생각되는 손상된 멀웨어에 에너지를 낭비하고 있다. 해커(177)은 그가 심은 멀웨어가 대상 시스템에 성공적으로 침투했다고 믿는다. 실제로 멀웨어는 가상화된 환경에서 격리되었다. 동일한 가상화된 환경은 해커(양방향성 또는 전방향성)와 통신 방법 및 구문을 모방하기 위해 악성 코드에 대해 행동 분석(168)을 규정했다. 범죄 자산(178)은 범죄 시스템(49)의 해킹 및 악의적 인 조작을 용이하게 하기 위해 범죄 재정(184)을 통한 투자를 나타낸다. 이러한 자산(178)은 일반적으로 컴퓨팅 성능과 인터넷 연결성으로 나타나는데, 이는 이 두 자산에 대한 강한 투자가 보다 발전되고 정교한 해킹 성능을 가능하게 하기 때문이다. 범죄 코드(179)를 사용하여 익스플로잇 스캔이 가능한 많은 법의학 증거를 수집하기 위해 신뢰 플랫폼의 에이전트에 의해 수행된다. 범죄 컴퓨터(180)에서는 AVX명령으로 CPU를 오버 플로우시키는 CPU 익스플로잇이 수행된다. 이로 인해 열 발생 증가, 전력 소비 증가, CPU 저하 및 범죄 프로세스에 대한 처리 능력 감소 등의 문제가 발생한다. 범죄 자산(178)의 익스플로잇 스캔(181)은 자신의 능력과 특성을 확인하기 위해 수행된다. 결과 검색 결과는 익스플로잇(185)에서 관리하고 신뢰 플랫폼(10)으로 전달된다. 익스플로잇(185)는 도 27 내지 도 44 MACINT에 열거 된 표적 범죄 시스템(49)에 침투하는 응징 익스플로잇 데이터베이스(187)을 통해 신뢰 플랫폼이 보낸 프로그램이다. 전기 및 냉각 지출이 크게 증가하여 범죄 재정(184)이 고갈된다. 컴퓨터를 종료하면 범죄 행위에 심각한 장애가 될 것이다. 새 컴퓨터를 구입하면 범죄 재정에 더 큰 부담이 되며, 그러한 새 컴퓨터는 오래된 컴퓨터처럼 악용되기 쉽다. 응징 익스플로잇 데이터베이스(187)에는 설치된 백 도어 및 알려진 취약점의 형태로 하드웨어 공급 업체(186)가 제공하는 범죄 행위를 악용하는 수단이 포함되어 있다. 통합 포렌식 증거 데이터베이스 (Unified Forensic Evidence Database)(188)는 다수의 기업에 걸쳐있는 다수의 소스로부터 수집된 포렌식 (forensic) 증거를 포함한다. 이 방법은 가능한 가장 강력한 법적 사건이 관련 법원에 제출되도록 형사상에 위임된다. 타겟 선택(189) 대한 타겟은 적절한 포렌식 증거가 확립 된 후에 응징을 위해서만 선택된다. 여기에는 감독에 의한 검토를 위해 포렌식 사건이 보류될 수 있는 최소 시간 요구 사항이 포함될 수 있다(예: 6개월). 증거는 고도로 자기 확신 할 수 있어야 하며, 고립된 사건들은 무고한 목표물을 공격하고 법적 반발을 불러일으킬 수 있다는 두려움 때문에 응징하기 위해 사용될 수 없다. 타겟 검증(190)에서는 다음과 같은 여러가지 방법으로 범죄 시스템을 검증하여 잠재적인 비밀의 방법(공공 카페, TOR 네트워크 등)을 능가한다.Figure 27 illustrates intelligent information management, viewing and control. The collection (152) filters out non-critical and redundant information using common level criteria and merges and tags information streams across multiple platforms. The configuration and deployment service (153) is an interface for deploying new enterprise assets (computers, laptops, mobile phones) with the correct security configuration and connectivity settings. After the devices are added and installed, they can be adjusted through the management console using the management feedback control as an intermediary. The service also manages the deployment of new customer/client user accounts. These deployments can include hardware and user accounts, interface customizations, and lists of customer/client variables (e.g., business type, product type, etc.). Based on jurisdictional segregation (154), the tagged information pool is segregated exclusively based on the jurisdiction of the management console user. In threat segregation (155), information is organized based on individual threats. All types of data are correlated to threats (more information is added) or removed. In the step of the process labeled Intelligent Contextualization (156), the remaining data is viewed as a cluster of islands, each island being a cybersecurity threat. Interrelationships between platforms are created to mature security analytics. Historical data is accessed to understand threat data patterns (as opposed to LIZARD (16) in I2 GE (21)) and CTMP is used for critical thinking analysis. In Threat Dilemma Management (157), cybersecurity threats are detected in a bird's eye view (big picture). These threats are then passed to a management console for graphical representation. Computed metrics related to threat mechanisms are finally integrated across multiple platforms; thus enabling more informed threat management decisions to be made automatically. Automated Controls (158) represent algorithmic access to control management-related controls of the MNSP (9), TP, and 3PS. Management Feedback Control (159) provides high level control of all MNSP Cloud, Trust Platform (10) and additional Third Party Services (3PS) based on services that can be used to facilitate policy writing, forensics, threat investigation, etc. These management controls are ultimately presented in the Management Console (MC) with appropriate customizable visuals and presentation efficiency. This allows efficient control and manipulation of the entire system (MNSP, TP, 3PI) directly from a single interface, with the ability to zoom in on details as needed. Manual Control (160) represents human access to the management related controls of MNSP (9), TP and 3PS. Direct Management (161) utilizes manual controls to provide a human interface. In the Categories and Jurisdictions (162), the user of the Management Console uses login credentials that define his/her jurisdiction and information category access scope. All potential data vectors (163) are data in motion, data at rest and data in use. The custom visualization (164) is for various corporate departments and stakeholders (executives, managers, executives of each department) such as accounting, finance, human resources, IT, legal, security/inspector, privacy/disclosure, labor unions, etc. The unified single view is a single view of all potential capabilities such as monitoring, logging, reporting, event correlation, alert handling, policy/rule set creation, remediation, algorithm tuning, service provisioning (new customers/modifications), third party services (receiving reports and alerts/logs from third party service providers and suppliers, etc.) as well as use of a trusted platform. The unified view (165) of all aspects of security is a collection of visuals representing the perimeter, enterprise, data center, cloud, removable media, mobile devices, etc. The cybersecurity team (167) is a team of qualified professionals who monitor the activity and status of multiple systems. Costs can be reduced by hiring fewer people with less experience as intelligent information processing and artificial intelligence (AI) decisions are made. The main purpose of the team is to be a replacement step to ensure that the system is mature and progressing to the desired criteria while performing large-scale analysis points. Behavioral analysis (168) observes the presence and performed actions of the malware (169) while in a 100% Mock Data Environment (394). While the malware interacts with the fake data (170), behavioral analysis records observed patterns in activation times (e.g., activation only on Sundays when offices are closed), file access requests, requested root management functions, etc. The malware (169) was planted by the hacker (177). While the hacker believes he has successfully planted the malware on the target system, the malware is silently transferred and isolated in the 100% Mock Data Environment (394). In the fake data (170), the malware (169) possesses a digital copy of the fake data. It does this while the data is real and, by extension, the hacker (177) does not know whether it is real or fake. When the malware attempts to send fake data to the hacker, the outgoing signal is rerouted to be received by the fake hacker (174), contrary to the malware's expectations of the real hacker. Using the hacker interface (171), the syntax (35) and purpose (36) modules (which syntactically belong to the LIZARD system) receive the code structure of the malware (169). This module reverse-engines the internal structure of the malware and outputs the hacker interface. This interface details the communication methods used between the malware and the hacker, the expectations the malware has of the hacker (e.g., receiving commands, etc.), and the expectations the hacker has of the malware (e.g., status reports, etc.). This information allows the fake hacker (174) and the fake malware (172) to be emulated within the virtualized environment (173). When the behavioral analysis (168) properly studies the behavior of the malware (169), the signal mimicry function of the MNSP (9) can emulate a program that acts like the hacker (177). This includes a communication protocol that exists between the real malware (169), the fake data (170), and the fake hacker (174). Using the emulated signal response (175), the virtualized fake hacker (174) sends a response signal to the real malware (169) to give the impression that the real operation was successful or failed. Such signals may include commands for malware behavior and/or requests for information status updates. This is used for further behavioral analysis studies to observe the next behavioral pattern of the malware. Once the investigation is complete, the simulated data environment (394) containing the malware can be frozen or destroyed. Using the emulated response code (176), the hacker receives a fake response code that has no correlation to the behavior/state of the real malware. Depending on the desired retaliatory tactic, a fake error code or a fake success code can be sent. The fake error code gives the hacker the impression that the malware is not working (when it actually is) and wastes the hacker's time on a useless debugging tangent. Successful error codes reduce the hacker's tendency to create new forms of malware, but instead focus on current error codes and possible incremental improvements. Since these malware have already been compromised and understood by LIZARD, the hacker is wasting energy on compromised malware that he believes to be successful. The hacker (177) believes that the malware he planted has successfully penetrated the target system. In reality, the malware is isolated in a virtualized environment. The same virtualized environment has been configured to perform behavioral analysis (168) on the malware to mimic the communication methods and syntax of the hacker (either bidirectional or omnidirectional). Criminal assets (178) represent investments made through criminal finances (184) to facilitate hacking and malicious manipulation of the criminal system (49). These assets (178) are typically represented by computing power and Internet connectivity, as strong investments in these two assets enable more advanced and sophisticated hacking capabilities. Using the criminal code (179), exploit scanning is performed by agents on the trusted platform to collect as much forensic evidence as possible. In the criminal computer (180), a CPU exploit is performed that overflows the CPU with AVX instructions. This causes problems such as increased heat generation, increased power consumption, CPU degradation, and reduced processing power for the criminal process. An exploit scan (181) of the criminal asset (178) is performed to check its capabilities and characteristics. The result of the search is managed by the exploit (185) and transmitted to the trust platform (10). The exploit (185) is a program sent by the trust platform through the retaliatory exploit database (187) that penetrates the target criminal system (49) listed in the MACINT of FIGS. 27 to 44. The electricity and cooling expenses are greatly increased, depleting the criminal finance (184). Shutting down the computer will be a serious impediment to criminal activity. Purchasing a new computer will be a greater burden on the criminal finance, and such a new computer is as easy to exploit as an old computer. The Retribution Exploit Database (187) contains means to exploit criminal activity provided by the hardware vendor (186) in the form of installed back doors and known vulnerabilities. The Unified Forensic Evidence Database (188) contains forensic evidence collected from multiple sources across multiple companies. This method is delegated to the criminal courts to ensure that the strongest possible legal case is presented to the relevant courts. Target selection (189) Targets are selected for retribution only after adequate forensic evidence has been established. This may include a minimum time requirement for the forensic case to be held for review by the supervisor (e.g., 6 months). The evidence must be highly self-convincing and isolated incidents cannot be used for retribution for fear of harming innocent targets and provoking legal repercussions. Target verification (190) verifies the criminal system in several ways to outperform potential covert methods (e.g., public cafes, TOR networks, etc.).

- 물리적 위치. GPS는 이용할 수 있다. 클라우드 서비스는 검증에 도움이 될 수 있다(즉, Dropbox 로그인 위치에 대한 장기적인 사례).- Physical location. GPS is available. Cloud services can help with verification (i.e. long-term case for Dropbox login location).

- 물리적 장치. MAC 주소, 일련 번호(제조업체/ 공급업체).- Physical device. MAC address, serial number (manufacturer/vendor).

- 인사 검증. 보안 시스템에서 생체 인식 데이터를 사용하고, 전면 카메라에서 사진을 찍어 여러 플랫폼에서 일관된 로그인 자격 증명을 확인할 수 있다.- Verification of identity. Use biometric data from your security system and take a photo from your front camera to verify consistent login credentials across platforms.

도 33은 범죄자들이 기업 시스템을 어떻게 공격하는지에 대한 MACINT 비밀 운영 개요를 보여준다. 기업 시스템(228)은 기업의 인프라와 자산에 대한 전체 범위와 관할권을 정의한다. 기업 컴퓨터(227)는 민감한 파일(214)을 포함하며, 일반적으로 예정된 작업을 위해 기업 네트워크(219)에 의존하기 때문에 기업 시스템(228)의 중요한 부분이다. 슬리퍼 더블 에이전트(215)는 휴면 상태로 있으며 대상 컴퓨터(227)에서 '잠자기(sleep)'상태 인 악성 소프트웨어이다. 활동이 없기 때문에 프로그래머와 사이버 보안 분석가는 아직 손해가 발생하지 않았으므로 그것을 탐지하기가 매우 어렵다. 범죄 시스템(49)의 해커가 슬리퍼 에이전트(215)를 사용할 수 있는 기회를 찾으면 민감한 파일(214)의 사본이 에이전트(215)에 자동으로 캡처된다. 이 단계에서 해커는 추적 대상에 노출되어 있지만 관리자의 통지없이 에이전트(215)를 설치할 수 있는 기회를 언제 사용할 것인지(즉, 파일(214)이 가치 있는 경우)에 대한 재량에 달려있다. 단계(216)에서 캡처된 파일(214)은 기업 네트워크 외부의 암호화를 통해 가짜 대상 서버로 푸시된다. 이러한 암호화(즉, https)는 정책에 의해 허용되므로, 전송은 즉시 차단되지 않는다. 캡처된 파일(214)은 기업 시스템(228)에서 나가서, 임의의 시스템 (262), 최종적으로 범죄 시스템 (49)으로 들어가기 위한 시도를 위해 기업 네트워크(219)의 네트워크 인프라로 전달된다. 이러한 네트워크 인프라 구조는 LAN 라우터(217) 및 방화벽(218)으로 표현되며, 이는 멀웨어가 캡쳐된 파일(214)을 기업 시스템 외부로 전송하기 전에 통과하는 마지막 장애물이다. 이 예에서 캡처된 파일(214)의 도용을 방해할 수 없다고 간주되는 산업 표준 방화벽 (218)은 로그 집합(220)으로 전송되는 로그를 생성한다. 그런 다음, 집합는 장기/ 딥 스캔(221) 및 실시간/ 표면 스캔(222)을 포함한다. 빈 결과(223) 시나리오의 경우, 실시간(222)은 악의적인 활동의 거의 즉각적인 인식을 실행하기 전에 부적절하게 수행할 준비가 되어 있지 않다. 멀웨어 연결 발견(224) 시나리오의 경우, 장기 스캔(221)은 분석 시간이 더 많으므로 결국 악의적인 동작을 인식한다. 시간의 여유로 인해 장기간(221)은 더 복잡한 알고리즘과 데이터 포인트로 보다 철저한 검색을 수행할 수 있다. 봇네트 손상된 부분(225)을 사용하면 임의의 제 3자 시스템에 속한 컴퓨터가 민감한 파일(226)을 전송하여 조사를 중단하고 임의의 제 3자를 구성한다. 도둑들은 봇네트를 통해 은닉된 존재를 유지하면서 범죄 컴퓨터(229)에서 민감한 파일(226)을 받고, 불법 강탈과 이익을 위해 파일을 사용하게 된다. 범죄 컴퓨터의 신원(즉, IP 주소)의 잠재적 흔적은 기업 시스템(228)의 관리자와 조사관이 액세스할 수 없는 임의 컴퓨터(238)에만 남겨질 수 있다.Figure 33 shows a MACINT covert operational overview of how criminals attack corporate systems. The corporate system (228) defines the overall scope and jurisdiction over the corporate infrastructure and assets. The corporate computer (227) contains sensitive files (214) and is a critical part of the corporate system (228) as it typically relies on the corporate network (219) for scheduled operations. The sleeper double agent (215) is a malicious software that is dormant and 'sleeps' on the target computer (227). Because it is inactive, it is very difficult for programmers and cybersecurity analysts to detect since no damage has been done yet. When a hacker on the criminal system (49) finds an opportunity to use the sleeper agent (215), a copy of the sensitive files (214) are automatically captured on the agent (215). At this stage the hacker is exposed to the target of tracking but has the discretion as to when to use the opportunity to install the agent (215) without the administrator's notification (i.e. if the file (214) is valuable). At step (216) the captured file (214) is pushed to a fake target server via encryption outside the corporate network. Since this encryption (i.e. https) is allowed by policy, the transmission is not immediately blocked. The captured file (214) exits the corporate system (228) and is forwarded to the network infrastructure of the corporate network (219) in an attempt to enter a random system (262) and ultimately the criminal system (49). This network infrastructure is represented by the LAN router (217) and the firewall (218) and is the final hurdle the malware must pass through before transmitting the captured file (214) outside the corporate system. In this example, an industry standard firewall (218) that is deemed incapable of interfering with the theft of the captured file (214) generates logs that are sent to a log set (220). The set then includes a long-term/deep scan (221) and a real-time/surface scan (222). In the case of the empty result (223) scenario, the real-time (222) is inadequately prepared to perform before it can perform the almost immediate recognition of malicious activity. In the case of the malware connection discovery (224) scenario, the long-term scan (221) has more analysis time and thus eventually recognizes the malicious behavior. Due to the extra time, the long-term (221) can perform a more thorough search with more complex algorithms and data points. Using a botnet compromised portion (225), a computer belonging to any third-party system can send a sensitive file (226) to stop the investigation and configure any third party. The thieves maintain a hidden presence through the botnet, receive sensitive files (226) from the criminal computer (229), and use the files for illegal extortion and profit. Potential traces of the criminal computer's identity (i.e., IP address) can be left only on random computers (238) that are not accessible to administrators and investigators of the corporate system (228).

도 34는 빅데이터(231)를 사용하는 장기/ 딥 스캔(230)을 더 상세하게 도시한다. 딥 스캔(230)은 '음모 탐지(Conspiracy Detection)'및 '외부 엔티티 관리(Foreign Entities Management)의 두 가지 하위 알고리즘을 활용하는 동안 빅 데이터(231)에 기여하고, 빅 데이터(231)를 처리한다. 중간 결과는 최종 결과를 담당하는 이상 탐지로 푸시된다. 방화벽 및 중앙 서버와 같은 보안 검사 포인트의 기준 로그는 로그 집합(220)에서 낮은 제한 필터를 사용하여 집합되고 선택된다. 이벤트 인덱스 + 추적(235)에서 이벤트 세부 정보들은 IP 주소, MAC 주소, 공급 업체 ID, 일련 번호, 시간, 날짜, DNS 등이 있다. 이러한 세부 정보는 로컬 데이터베이스와 공유 클라우드 데이터베이스(데이터베이스들은 데이터가 동일하지 않음)로 존재한다. 이러한 엔트리의 로컬 저장은 다른 기업을 위해 클라우드 데이터베이스에 푸시된다(기업에 따라 정책 제한이 있음). 대신 로컬 분석을 위해 유용한 이벤트 정보가 수신된다. 신뢰되는 제 3 자 (Trusted Third Party)(235)에 등록된 기업은 이미 봇네트의 범죄를 경험했을 수 있으며 이러한 위험을 줄이기 위한 예방적인 세부 정보를 제공할 수 있다. 보안 행동(236)에서 보안 반동 지침은 로컬 데이터베이스와 공유 클라우드 데이터베이스에 저장된다(이러한 데이터베이스들은 데이터가 동일하지 않다). 이러한 반동 지침은 보안 시스템을 보장하기 위한 행동 포인트를 정의한다. 예를 들어, 이벤트 인덱스가 말하는 봇네트에 10번 중 6번이 연결된 시스템에 액세스 한 IP 주소가 있으면 30 일 동안 IP 주소를 금지하고 로그 시스템에 우선 순위 플래그를 지정하여 IP주소를 표시한다. 이러한 지침의 로컬 저장은 다른 기업의 이익을 위해 클라우드 데이터베이스로 푸시된다(기업에 따라 정책 제한이 있음). 대신 로컬 분석을 위해 유용한 이벤트 정보가 수신된다. 이상 탐지(237)를 사용하면 권한이 없는 에이전트가 기업 네트워크 외부의 임의 시스템으로 전송하는 민감한 파일과 같은 잠재적 위험 이벤트를 확인하기 위해 딥 스캔 모듈에서 제공하는 중간 데이터에 따라 이벤트 인덱스 및 보안 행동이 사용된다. 임의의 컴퓨터(238)는 위반에 관련된 결과 대상 서버가 강조 표시되며 MAC 주소/ 최후에 알려진 IP 주소(239), 국가 및 가동 시간 패턴 등과 같은 알려진 특성으로 정의된다. 이러한 분석은 주로 외부 엔티티 관리(232) 모듈을 포함한다. 그런 다음 시스템은 봇네트에 관련된 컴퓨터의 가능성(240)을 결정할 수 있다. 이러한 분석은 주로 음모 탐지(19)를 포함한다.Fig. 34 illustrates a long-term/deep scan (230) using big data (231) in more detail. Deep scan (230) contributes to and processes big data (231) while utilizing two sub-algorithms: 'Conspiracy Detection' and 'Foreign Entities Management'. Intermediate results are pushed to anomaly detection, which is responsible for the final results. Baseline logs from security checkpoints such as firewalls and central servers are aggregated and selected from the log set (220) using a low-restriction filter. Event details in the event index + trace (235) include IP address, MAC address, vendor ID, serial number, time, date, DNS, etc. These details exist in a local database and a shared cloud database (databases are not identical in data). The local storage of these entries is pushed to a cloud database for other enterprises (subject to policy restrictions depending on the enterprise). Instead, useful event information is received for local analysis. Companies registered with Trusted Third Parties (235) may have already experienced botnet crimes and can provide preventive details to reduce this risk. In Security Actions (236), security reactive instructions are stored in local databases and shared cloud databases (these databases are not identical in data). These reactive instructions define action points to ensure the security of the system. For example, if an IP address accesses a system that is connected to a botnet that the event index refers to 6 out of 10 times, the IP address is banned for 30 days and the IP address is flagged as a priority in the log system. The local storage of these instructions is pushed to the cloud database for the benefit of other companies (subject to policy restrictions depending on the company). Instead, useful event information is received for local analysis. With anomaly detection (237), the event index and security actions are used based on intermediate data provided by the deep scan module to identify potential risk events, such as sensitive files being transferred by unauthorized agents to arbitrary systems outside the corporate network. Any computer (238) is highlighted as the target server involved in the breach and is defined by known characteristics such as MAC address/last known IP address (239), country and uptime pattern. This analysis primarily involves the External Entity Management (232) module. The system can then determine the likelihood (240) that the computer is involved in a botnet. This analysis primarily involves conspiracy detection (19).

도 35는 임의의 컴퓨터 또는 임의의 컴퓨터 관련/인접 서버(다른 서버와 연결하는 서버)가 신뢰할 수 있는 플랫폼(10)에 대해 이중 또는 삼중 에이전트인지를 확인하기 위해 임의의 컴퓨터가 신뢰 플랫폼(10)에서 어떻게 검색되는지를 보여준다. 단계(242)는 MAC 주소/ IP 주소(239)와 같은 임의의 컴퓨터(238)의 알려진 정보가 이벤트 인덱스 + 추적(235) 및 클라우드 버전 (232)에서 쿼리를 위해 전송되는 방법을 나타낸다. 신뢰 플랫폼(10)에서 작동하는 이러한 클라우드 버전은 미래의 위협 및 위협 패턴을 식별하기 위한 이벤트 세부정보를 추적한다. 즉 MAC 주소, IP 주소, 액세스 타임 스탬프 등. 그러한 쿼리(querying)(242)로부터의 결과는 시스템 수집 세부 사항(243)으로 전송된다. 그러한 세부 사항은 원래 임의의 컴퓨터(238) 세부 사항, 패킷을 컴퓨터(238)에 정기적으로 수신 및/또는 송신하는 컴퓨터들/시스템들, 및 컴퓨터(238)에 물리적으로 근접한 시스템을 포함한다. 그러한 세부 사항은 단계(246 및 247)로 전송되며 언급된 컴퓨터들/시스템들 중 임의의 것이 이중 에이전트(247) 또는 삼중 에이전트(246)에 발생 하는지를 확인한다. 이러한 에이전트 룩업 검사는 신뢰되는 이중 에이전트 인덱스 + 추정 클라우드 (244) 및 신뢰되는 삼중 에이전트 인덱스 + 추정 클라우드 (245)에서 수행된다.  이중 에이전트 인덱스(244)에는 신뢰할 수 있는 플랫폼과 그 계열사가 제어하는 슬리퍼 에이전트가 설치된 시스템 목록이 포함되어 있다. 삼중 에이전트 인덱스(245)에는 범죄 조직(예: 봇네트)에 의해 침해 받았지만 악의적인 활동 및 개발을 모니터하기 위해 신뢰 플랫폼(10)에 의해 개별적인 방식으로 손상된 시스템 목록이 포함되어 있다. 이 2개의 클라우드들은 그 결과를 활성화 및 관련된 에이전트 목록(248)에서 수집한 결과를 출력한다.FIG. 35 shows how any computer is searched on the trusted platform (10) to determine if any computer or any computer-related/adjacent server (server connecting to other servers) is a double or triple agent for the trusted platform (10). Step (242) shows how known information of any computer (238) such as MAC address/IP address (239) is sent for query in the event index + tracking (235) and the cloud version (232). This cloud version operating on the trusted platform (10) tracks event details for identifying future threats and threat patterns i.e. MAC address, IP address, access timestamp, etc. The results from such querying (242) are sent to the system collection details (243). Such details include the original details of any computer (238), the computers/systems that regularly receive and/or transmit packets to the computer (238), and the systems that are physically in proximity to the computer (238). Such details are transmitted to steps (246 and 247) to check if any of the mentioned computers/systems are dual-agent (247) or triple-agent (246). These agent lookup checks are performed on the trusted dual-agent index + presumptive cloud (244) and the trusted triple-agent index + presumptive cloud (245). The dual-agent index (244) contains a list of systems on which sleeper agents controlled by the trusted platform and its affiliates are installed. The triple-agent index (245) contains a list of systems that have been compromised by a criminal organization (e.g. a botnet) but in a separate manner by the trusted platform (10) to monitor malicious activities and developments. These two clouds output the results collected in the activated and associated agent list (248).

도 36은 신뢰 플랫폼(10)으로부터 알려진 이중 또는 삼중의 에이전트가 포렌식 조사를 더 진행하기 위해 어떻게 참여해야 하는지를 도시한다. 에이전트 목록(248)에서 전송되고 적절한 슬리퍼 에이전트(252)가 활성화(249)된다. 임의 시스템(238)이 신뢰하는 이중 에이전트 시스템(251)은 신뢰되는 채널(254)을 통해 익스플로잇(253)을 푸시한다. 임의의 컴퓨터 (238)에 성공적으로 배치되면 익스플로잇(253)은 민감한 파일(241)의 활동을 추적하고 그것이 범죄 컴퓨터(229)로 알려져 있음을 알게 된다. 이는 채널(255)에서 처음으로(216) 파일 (241)을 전송하는데 사용된 것과 동일한 경로를 따르고 범죄 컴퓨터(229)에서 자체 설정을 시도한다. 그러면 익스플로잇(253)은 민감한 파일(241)을 찾고, 그것을 격리하며, 정확한 상태를 신뢰 플랫폼(10)으로 되돌려 보내고, 범죄 컴퓨터(229)로부터 이를 지우려고 시도한다. 신뢰 플랫폼(10)은 검역된 파일을 포렌식 목적으로 원래 기업 시스템(228)(원래 파일을 소유한 사용자)에 다시 전달한다. 익스플로잇(253)이 민감한 파일(241)을 검색할 수 있다고 항상 보장되는 것은 아니지만 적어도 범죄 컴퓨터(229) 및 시스템(49)에 대한 식별 가능한 정보(239)를 전달할 수 있다.Figure 36 illustrates how a known dual or triple agent from the trusted platform (10) may be involved in furthering the forensic investigation. An agent list (248) is sent and an appropriate sleeper agent (252) is activated (249). A dual agent system (251) trusted by a random system (238) pushes an exploit (253) over a trusted channel (254). Once successfully deployed on the random computer (238), the exploit (253) tracks the activity of the sensitive file (241) and learns that it is known to the criminal computer (229). It follows the same path used to initially (216) transfer the file (241) over the channel (255) and attempts to establish itself on the criminal computer (229). The exploit (253) then locates the sensitive file (241), quarantines it, returns the correct state back to the trusted platform (10), and attempts to erase it from the criminal computer (229). The trust platform (10) forwards the quarantined files back to the original corporate system (228) (the user who originally owned the files) for forensic purposes. While it is not always guaranteed that the exploit (253) will be able to retrieve sensitive files (241), it can at least forward identifiable information (239) about the criminal computer (229) and system (49).

도 37은 신뢰 플랫폼(10)이 임의의 컴퓨터(238)에 관한 ISP(Internet Service Provider)(257) API를 사용하는 방법을 보여준다. 네트워크 관리(Network Oversight)(261)는 사법 조사를 증진하기 위해 임의 시스템 (Arbitrary System)(262)를 시도하고 절충하기 위해 사용된다. 기업 시스템(228)은 임의의 컴퓨터(238)에 관한 제한된 정보(259)만을 알고 범죄 컴퓨터(229) 및 시스템(49)에 관한 정보를 찾고 있다. ISP(257) API 요청은 신뢰 플랫폼(10)을 통해 이루어진다. 네트워크 감독(261) 시스템에서 임의 시스템 (262)에 대한 시스템 네트워크 로그가 발견되고 범죄 컴퓨터(229)에 대한 잠재적 인 파일 전송(나중에 인식되는 것)이 발견된다. 로그 이력은 민감한 파일(241)의 정확한 및 전체 구성을 기록하기에 충분하지는 않지만, 메타 데이터(260)를 사용하여 파일이 전송된 컴퓨터를 결정할 수 있다. 네트워크 관리(261)는 범죄 컴퓨터(229)의 네트워크 세부 사항(258)을 발견하고 따라서 그러한 정보를 신뢰 플랫폼(10)으로 재 라우팅하고, 신뢰 시스템은 기업 시스템(228)에 통지한다.FIG. 37 illustrates how the Trust Platform (10) uses an Internet Service Provider (ISP) (257) API for an arbitrary computer (238). Network Oversight (261) is used to try and compromise an Arbitrary System (262) to facilitate a law enforcement investigation. The corporate system (228) knows only limited information (259) about the Arbitrary Computer (238) and is seeking information about the criminal computer (229) and system (49). The ISP (257) API request is made through the Trust Platform (10). The Network Oversight (261) system discovers system network logs for the Arbitrary System (262) and a potential file transfer (which is later recognized) to the criminal computer (229). While the log history is not sufficient to record the exact and complete composition of the sensitive file (241), the metadata (260) can be used to determine the computer from which the file was transferred. Network management (261) discovers the network details (258) of the criminal computer (229) and therefore reroutes such information to the trust platform (10), which then notifies the corporate system (228).

도 38은 신뢰 플랫폼(10)이 소프트웨어(268) 및 하드웨어(272) 공급업체가 제공하는 보안 API를 활용하여 사법 조사를 보좌할 수 있는 수립된 백도어를 개발하는데 사용하는 방법을 보여 준다. 단계(263)에서, 범죄 컴퓨터(229)의 공지된 신원 상세 정보가 신뢰 플랫폼(10)으로 전달되어 백도어 API에 관여한다. 그러한 세부 정보에는 MAC 주소/IP 주소(239) 및 범죄 컴퓨터의 의심 소프트웨어 + 하드웨어가 포함될 수 있다. 그런 다음 신뢰 플랫폼(10)은 휴면 상태(착취 코드는 아직 실행되지 않음)에서 제휴 소프트웨어(268) 및 하드웨어(272) 공급 업체에 익스플로잇(253)을 제공한다. 또한, 단계(263)에서 기업 시스템(228)에 의해 의심되는 범죄 컴퓨터(229)의 의심되는 소프트웨어(269) 및 하드웨어(273)가 공급업체에게 전달된다. 공급 업체는 자신을 호출하는 방법, 취해야 할 조치의 기준, 기능 및 제한 사항과 같은 정보를 포함하여 설치된 소프트웨어(270) 및 하드웨어(274) 백도어 목록을 유지 관리한다. 이러한 모든 백도어는 내부적으로 격리되어 있으며 공급 업체 내에서 기밀로 유지되므로 신뢰 플랫폼은 그러한 백도어를 다루는 민감한 정보를 받지 못하고 혜택을 받을 수 있는 익스플로잇(253)을 제공한다. 소프트웨어(267) 또는 하드웨어(271) 백도어의 성공적인 구현 시에, 익스플로잇(253)은 범죄 컴퓨터(229)에 이산적으로 설치된다. 민감한 파일(241)은 나중에 메타 데이터 사용 내역이 분석 될 수 있도록 격리되고 복사된다. 범죄 컴퓨터(229)상의 나머지 사본들은 안전하게 지워진다. 가능한 다른 보완적인 포렌식 증거가 수집된다. 모든 포렌식 데이터는 신뢰 플랫폼(10)의 익스플로잇(253)의 포인트로 반환된다. 그 다음에 포렌식 증거(265)는 범죄 시스템(229)에서 발견된 민감한 파일(241)과 파일(241)의 초기 도난에 관한 증거가 있는 범죄 시스템과 관련된 사람들의 신원 정보를 포함하는 기업 시스템(228)로 전달된다. 이러한 방법으로 기업 시스템(228)은 초기 도난시 시스템에서 삭제된 경우 파일(241)을 복원할 수 있으며 식별 세부정보(264)를 사용하면 법적 손해 배상 및 범죄 시스템(49) 봇네트을 비활성화하여 향후 공격의 위험을 완화할 수 있다.FIG. 38 illustrates how the trusted platform (10) can be used to develop an established backdoor that can assist in a law enforcement investigation by utilizing the security APIs provided by the software (268) and hardware (272) vendors. At step (263), known identity details of the criminal computer (229) are passed to the trusted platform (10) to engage the backdoor API. Such details may include the MAC address/IP address (239) and the suspected software + hardware of the criminal computer. The trusted platform (10) then provides the exploit (253) to the affiliated software (268) and hardware (272) vendors while in a dormant state (the exploit code is not yet executed). Additionally, at step (263), the suspected software (269) and hardware (273) of the suspected criminal computer (229) are passed to the vendor by the corporate system (228). The vendor maintains a list of installed software (270) and hardware (274) backdoors, including information such as how to call themselves, criteria for actions to be taken, capabilities and limitations. All of these backdoors are internally isolated and kept confidential within the vendor, so that the trusted platform does not receive sensitive information dealing with such backdoors and provides exploits (253) that can benefit from them. Upon successful implementation of a software (267) or hardware (271) backdoor, the exploit (253) is discretely installed on the criminal computer (229). The sensitive files (241) are isolated and copied so that the metadata usage history can be analyzed later. Any remaining copies on the criminal computer (229) are securely erased. Any other complementary forensic evidence is collected. All forensic data is returned to the point of the exploit (253) on the trusted platform (10). The forensic evidence (265) is then forwarded to the corporate system (228) containing the sensitive files (241) discovered in the criminal system (229) and the identities of people associated with the criminal system that may have evidence of the initial theft of the files (241). In this way, the corporate system (228) can restore the files (241) if they were deleted from the system during the initial theft and, using the identification details (264), can mitigate the risk of future attacks by seeking legal damages and disabling the criminal system (49) botnet.

도 39 내지 도 41은 신뢰 플랫폼(10)의 직접 지원 없이 직접 타협을 수행하기 위해 일반적인(282) 및 맞춤형(283) 익스플로잇이 임의(238) 및 범죄(229) 컴퓨터들에 적용되는 방법을 도시한다. 일반적 익스플로잇(282)는 독립적인 사이버 보안 연구를 통해 기업 시스템(280)에 의해 조직되고 조립된 소프트웨어, 펌웨어 및 하드웨어 익스플로잇 모음이다. 익스플로잇을 사용하여 맞춤형(283) 익스플로잇은 대상에 대한 알려진 정보에 따라 사용자 지정된다. 익스플로잇(253)은 가장 먼저 성공할 확률이 가장 높고 가장 늦게 성공할 확률이 가장 낮은 상태로 제공된다. 범죄 컴퓨터(229)에 관한 이용 가능한 정보(284)의 수집은 맞춤형(283)으로 전달된다. 그러한 정보는 범죄 컴퓨터(229)에 의해 사용되는 MAC 주소/IP 주소 (239) 및 의심되는 소프트웨어 + 하드웨어 (285)와 같은 임의의 알려진 컴퓨터 정보를 포함한다. 프록시 관리 (286)는 공격 시도에 사용될 프록시를 지능적으로 선택하는 알고리즘 및 데이터베이스의 조합이다. 프록시 네트워크(279)는 일련의 프록시 노드(278)로서, 임의의 개별 시스템이 자신의 발신 신원을 마스킹할 수 있도록 한다. 노드는 이러한 디지털 통신을 통과하여 명백한 발신자가 된다. 노드는 노드의 전반적인 성능, 노드의 가용성 및 노드의 현재 작업 부하에 따라 프록시 관리(286)에 의해 지능적으로 선택된다. 범죄 컴퓨터(229) 및/또는 임의 컴퓨터(238)의 세 가지 잠재적 착취 포인트가 시도된다. 범죄 컴퓨터(229)를 악용하는 것이 실패하면 임의의 컴퓨터(238)를 악용하려는 시도가 전반적인 포렌식 조사를 용이하게 할 수 있으므로 관계없이 이루어진다. 첫번째 방법은 직접 착취이고, 두 번째는 임의 컴퓨터의 봇네트 터널(276)을 통해 이루어지며, 세 번째 방법은 범죄 시스템이 봇네트(277)를 설치하는데 사용된 원래의 착취 방법이다(사용되지 않은 다른 사용 포인트도 포함). 봇네트 터널(276)은 범죄 컴퓨터(229)와 봇네트(240)의 활성 부분 사이에 사용되는 확립된 통신 수단이다. 익스플로잇(253)에 의해 생성된 포렌식 데이터는 단계(275)에서 기업 시스템(228)으로 전송된다.Figures 39 through 41 illustrate how generic (282) and custom (283) exploits are applied to arbitrary (238) and criminal (229) computers to perform a direct compromise without the direct assistance of the trusted platform (10). The generic exploit (282) is a collection of software, firmware and hardware exploits organized and assembled by the enterprise system (280) through independent cybersecurity research. Using the exploit, the custom (283) exploit is customized based on known information about the target. The exploit (253) is provided with the highest probability of success first and the lowest probability of success last. A collection of available information (284) about the criminal computer (229) is passed on to the custom (283). Such information includes any known computer information such as the MAC address/IP address (239) used by the criminal computer (229) and the suspected software+hardware (285). Proxy management (286) is a combination of algorithms and databases that intelligently select the proxy to be used in an attack attempt. The proxy network (279) is a series of proxy nodes (278) that allow any individual system to mask its originating identity. The nodes that pass through these digital communications become the apparent originators. The nodes are intelligently selected by proxy management (286) based on the overall performance of the node, the availability of the node, and the current workload of the node. Three potential exploitation points are attempted, the criminal computer (229) and/or the random computer (238). If exploitation of the criminal computer (229) fails, an attempt to exploit the random computer (238) is made regardless, as it can facilitate an overall forensic investigation. The first method is direct exploitation, the second is through a botnet tunnel (276) of the random computer, and the third is the original exploitation method that the criminal system used to install the botnet (277) (as well as other exploitation points that are not used). A botnet tunnel (276) is an established means of communication used between the criminal computer (229) and the active part of the botnet (240). Forensic data generated by the exploit (253) is transmitted to the corporate system (228) at step (275).

도 41은 신뢰 플랫폼(10)을 갖는 특별한 API가 소프트웨어 또는 펌웨어 업데이트(289)를 범죄 컴퓨터(229)에 푸시하여 새로운 백도어를 구축하는 방법을 도시한다. 플라시보 업데이트(288)는 스텔스를 유지하기 위해 가까운 유사한 기계에 푸시된다. 기업 시스템(228)은 신뢰 플랫폼(10)에 대상 신원 상세 정보 (297)를 전송한다. 이러한 세부 사항은 MAC 주소 / IP 주소 (239)를 포함한다. 신뢰 플랫폼(10)은 소프트웨어/펌웨어 유지 장치(287)와 통신하여 관련 컴퓨터에 플라시보 업데이트(288) 및 백도어 업데이트(289)를 푸시한다. 백도어 업데이트는 컴퓨터에 설치된 사전 설치된 소프트웨어 업데이트 시스템을 사용하여 범죄 컴퓨터의 (229) 시스템에 새로운 백도어를 도입한다. 이러한 업데이트는 운영 체제, BIOS (펌웨어), 워드 프로세서와 같은 특정 소프트웨어에 대한 업데이트 일 수 있다. 플라시보 업데이트(288)는 백도어가 누락되어 보안 손상이 없도록 하고 백도어 업데이트(289)와 동일한 세부 사항 및 식별(즉, 업데이트 번호 / 코드)을 표시하여 백도어를 은폐하는 환경을 유발한다. 유지 장치(287)는 백도어(295)를 타겟 뿐만 아니라 타겟에 평균 이상의 노출량을 갖는 컴퓨터로 전송한다. 그러한 추가 컴퓨터(296)는 범죄 시스템(49) 인프라에 속하는 컴퓨터 또는 범죄 컴퓨터(229)와 동일한 로컬 네트워크에 있는 컴퓨터 일 수 있다. 이러한 추가적인 컴퓨터(296)를 이용하면 직접 공격이 불가능한 경우 (즉, 운영 체제에 대한 업데이트를 끄는 등) 범죄 컴퓨터(229)로의 진입 경로를 확보할 기회가 증가한다. 그러면 익스플로잇(253)은 가까운 컴퓨터(296)에서 자신을 설정할 수 있는 경우 대상에 대한 다른 진입 포인트를 고려할 수 있다. 타겟에 대한 평균 노출량을 가진 관련 컴퓨터(291)에 대해 플라시보 업데이트 (228)가 제출된다. 노출은 공통 네트워크(즉, 가상 사설망 등) 또는 공통 서비스 플랫폼(즉, 파일 공유 등)을 공유하는 것으로 이해 될 수 있다. 관련 시스템 (290)은 전략적으로 동일한 회사의 법적 구조 등이 소유하는 것처럼 범죄 시스템 (49)에 묶일 수도 있다. 이웃한 시스템(292)에 속하는 이웃한 컴퓨터(293)는 타겟 범죄 컴퓨터(229)와의 그들의 물리적인 위치(동일한 지구 등) 때문에 플라시보 업데이트를 받는다. 가까운 유지장치(287)가 제공할 예정인 정기 업데이트(또는 조사에 적합하고 실행 가능한 것이 무엇이든지)가 없는 동안에 민감한 포렌식 조사를 용이하게 하기 위해 관련된(290) 및 이웃한(292)에 시스템 모두에 플라시보 업데이트(288)가 제공된다. 소프트웨어/펌웨어 개선을 위한 정기적인 업데이트가있는 시나리오의 경우, 관련된(290) 및 이웃한(292) 시스템에는 백 도어(289) 업데이트의 인식된 정당성을 확인하기 위한 플라시보 업데이트가 필요하지 않다. 대신에 백도어(289)는 범죄 컴퓨터(229) 및 기타 컴퓨터(296)를 대상으로 하는 정당한 업데이트 중 일부에 설치 될 수 있다. 백도어 업데이트(295)를 통해 익스플로잇(253)을 성공적으로 구현하면 민감한 파일(241)은 나중에 메타 데이터 사용 내역을 분석 할 수 있도록 격리되고 복사된다. 범죄 컴퓨터(229)의 나머지 사본은 안전하게 지워진다. 보완적인 포렌식 증거가 수집된다. 그 후, 포렌식 데이터는 신뢰 플랫폼(10)에서 익스플로잇의 접촉 포인트로 보내진다. 플랫폼(10)에서 데이터가 검증되면 결과 (281)에서 엔터프라이즈 시스템 (228)으로 전달된다.FIG. 41 illustrates how a special API with a trusted platform (10) pushes software or firmware updates (289) to a criminal computer (229) to establish a new backdoor. A placebo update (288) is pushed to a nearby similar machine to maintain stealth. The corporate system (228) transmits target identity details (297) to the trusted platform (10). These details include MAC address/IP address (239). The trusted platform (10) communicates with the software/firmware maintenance device (287) to push the placebo update (288) and backdoor update (289) to the relevant computers. The backdoor update introduces a new backdoor into the criminal computer's (229) system using a pre-installed software update system installed on the computer. These updates may be updates to specific software such as an operating system, BIOS (firmware), word processor, etc. The placebo update (288) causes an environment to hide the backdoor by displaying the same details and identification (i.e. update number/code) as the backdoor update (289) to ensure that the backdoor is not missed and does not compromise security. The maintenance device (287) transmits the backdoor (295) to the target as well as to a computer that has an above average exposure to the target. Such additional computer (296) may be a computer belonging to the infrastructure of the criminal system (49) or a computer on the same local network as the criminal computer (229). The use of such additional computer (296) increases the opportunity to gain entry into the criminal computer (229) in cases where a direct attack is not possible (i.e. updates to the operating system are turned off, etc.). The exploit (253) can then consider other entry points into the target if it can establish itself on a nearby computer (296). The placebo update (228) is submitted to the relevant computer (291) that has an above average exposure to the target. Exposure can be understood as sharing a common network (i.e., virtual private network, etc.) or a common service platform (i.e., file sharing, etc.). The associated system (290) may also be strategically tied to the criminal system (49), such as being owned by the same corporate legal structure, etc. The neighboring computer (293) belonging to the neighboring system (292) receives the placebo update due to their physical location (e.g., same district) with the target criminal computer (229). The placebo update (288) is provided to both the associated (290) and neighboring (292) systems to facilitate sensitive forensic investigations during the absence of regular updates (or whatever is suitable and feasible for the investigation) that the nearby maintenance unit (287) is expected to provide. In scenarios where there are regular updates for software/firmware improvements, the associated (290) and neighboring (292) systems do not need the placebo update to confirm the perceived legitimacy of the back door (289) update. Alternatively, a backdoor (289) may be installed on some of the legitimate updates targeting the criminal computer (229) and other computers (296). Upon successful implementation of the exploit (253) via the backdoor update (295), the sensitive files (241) are isolated and copied so that they can be analyzed later for metadata usage history. The remaining copies on the criminal computer (229) are securely erased. Additional forensic evidence is collected. The forensic data is then sent to the trusted platform (10) to the point of contact for the exploit. Once the data is verified on the platform (10), it is forwarded to the enterprise system (228) in the results (281).

도 42는 임의의 및 모든 변경 / 업데이트에 대해 범죄 시스템(229)을 모니터링하기 위해 장기 우선 순위 플래그가 신뢰 플랫폼(10)에 푸시되는 방법을 도시한다. 신규 개발은 조사를 용이하게 하기 위해 장기간 우선적으로 모니터링된다. 먼저, 기업 시스템(228)은 신뢰 플랫폼(10)의 서브 세트 인 보증 모듈(300)에(식별 가능한 세부 사항(239)을 포함하는) 목표(297)를 제출한다. 보증 모듈은 정의된 목표(297)의 모든 연관에 대해 모든 제휴 시스템 (303) 입력(299)을 스캔한다. 일치하는 항목이 있으면 정보는 근거를 정의하고 목표(297)에 침투하려고 하는 기업 시스템(228)으로 전달된다. 정보 입력(299)은 신뢰 플랫폼(10)의 제휴 시스템이 보고하는 정보로서, 일반적으로 원하는 분석을 수신하기 위한 것이다. 또한 신뢰 플랫폼(10)에 대한 인증 및 명성을 얻으려는 목적으로 입력을 제출할 수도 있다. 제휴사 시스템(303)은 그들의 입력을 신뢰 플랫폼(10)에 제출한다; 이것은 목표(297)을 모니터링하려고 하는 기업 시스템(228)의 장점이다. 이것은 긍정적인, 중립적인 또는 부정적인 상호 작용이든 관계없이 이러한 제휴사 시스템(303) 중 하나가 목표나 목표와 연관이 있는 기회를 증가시킨다. 이러한 입력(299)은 상호 이익이 되는 보안 정보를 동기화하기 위한 신뢰 플랫폼(10)의 다수 기능을 나타내는 원하는 분석 모듈(301)로 전송된다. 제휴사 시스템(303)은 보안 요청을 게시하고 보안 정보를 교환한다.  목표(297) 또는 목표와 연관에 관한 정보가 발견되면, 정보는 또한 보증 모듈(300)에 병렬로 전달된다. 모듈(301)의 정보 출력(302)은 그들의 요청 된 업무 또는 기능을 완료하기 위해 제휴사 시스템(303)으로 전송된다. 목표(297)에 관한 보증 모듈(300)에서 얻은 유용한 정보는 기업 시스템의 (228) 포렌식 조사의 일부로 결과(298)로 전달된다.FIG. 42 illustrates how a long-term priority flag is pushed to the trust platform (10) to monitor the criminal system (229) for any and all changes/updates. New developments are monitored on a long-term priority basis to facilitate investigation. First, the enterprise system (228) submits a target (297) (including identifiable details (239)) to the assurance module (300), which is a subset of the trust platform (10). The assurance module scans all affiliated systems (303) inputs (299) for all associations of the defined target (297). If a match is found, the information is passed on to the enterprise system (228) that is attempting to define the basis and infiltrate the target (297). The information inputs (299) are information reported by the affiliated systems of the trust platform (10), typically for the purpose of receiving desired analysis. Inputs may also be submitted for the purpose of gaining authentication and reputation with the trust platform (10). The affiliated systems (303) submit their inputs to the trust platform (10); This is an advantage for the enterprise system (228) that is trying to monitor the target (297). This increases the chance that one of these affiliate systems (303) is associated with the target or targets, whether it is a positive, neutral or negative interaction. These inputs (299) are forwarded to the desired analysis module (301) which represents a number of functions of the trust platform (10) for synchronizing mutually beneficial security information. The affiliate system (303) posts a security request and exchanges security information. If information is found regarding the target (297) or association with the target, the information is also forwarded in parallel to the assurance module (300). The information output (302) of the module (301) is forwarded to the affiliate system (303) to complete their requested task or function. Useful information obtained from the assurance module (300) regarding the target (297) is forwarded as a result (298) as part of the enterprise system's (228) forensic investigation.

논리적 추론된 제로-데이터 베이스 선험적 실시간 방어(LIZARD)Logical Inference Zero-Database A priori Real-Time Defense (LIZARD)

도 43 및 도 44는 LIZARD (논리적 추론된 제로-데이터 베이스 선험적 실시간 방어)의 의존 관계 구조를 도시한다. 정적 코어(193)는 주로 프로그래머가 고정 된 프로그램 모듈을 하드 코딩한 곳이다. 반복 모듈(194)는 동적 쉘(198)에서 모듈을 지능적으로 수정, 생성 및 파괴한다. 보안 성능에 대한 참조를 위해 인공 보안 위협(AST)을 사용하고 자동 코드 작성 방법을 처리하기 위해 반복 코어를 사용한다. 반복 코어(195)는 도 51에 도시 된 바와 같이 보안 개선을 위해 동적 쉘(198)을 반복하는 주된 논리이다.   차등 수정 알고리즘(196)은 AST가 발견한 결함에 따라 기본 반복을 수정한다. 차동 논리가 적용된 후, 새로운 반복이 제안되며, 이 반복 코어는 재귀적으로 호출되며 AST에서 테스트하는 동일한 프로세스를 거친다. 논리적 추론 알고리즘(LDA)(197)은 현재의 상태인 인공 보안 위협(AST)에서 동적 쉘 반복의 알려진 보안 응답을 수신한다. 또한 LDA는 코드 세트 메이크업이 보안 시나리오(AST에서 제공)에 대해 알려진 올바른 응답을 얻을 수 있는지 추론한다. 동적 쉘(198)은 주로 반복 모듈에 의해 자동으로 프로그램된 동적 프로그램 모듈을 포함한다. 코드 격리(199)는 외부 코드를 제한된 가상 환경(즉, 페트리 접시)으로 분리한다. 비밀 코드 탐지(200)는 데이터 및 송신 패킷에 은밀하게 삽입된 코드를 검출한다. AST 오버플로 릴레이 (Overflow Relay)(201) 시스템은 신뢰도가 낮은 결정만 수행할 수 있는 경우 향후 반복 개선을 위해 AST(17)로 릴레이된다. 내부 일관성 검사(Internal Consistency Check)(202)는 외부 코드 블록의 모든 내부 기능이 의미 있는지를 검사한다. 전체적으로 외부 코드의 목적과 내부적으로 일치하지 않는 코드 조각이 없는지 확인한다. 외부 코드 재 작성(Foreign Code Rewrite)(203)은 외부 코드 목적을 유도 한 후, 부분 또는 전체 코드 자체를 재 작성하고 재 작성 만이 실행되도록 허용한다. 미러 테스트는 다시 쓰기의 입력 / 출력 동적이 원본과 동일한 지 확인한다. 이러한 방법으로 원래 코드에서 숨겨진 모든 익스플로잇 사례가 중복되어 실행되지 않는다. 니드 맵 매칭(204)은 외부 코드가 시스템의 전체 목적(즉, 퍼즐)에 적합한지를 결정하기 위해 참조된 목적 및 목적에 매핑 된 계층이다. 실제 데이터 동기화 장치(Real Data Synchronizer)(205)는 혼합된 환경에 어떤 우선 순위로 데이터를 지능적으로 선택하는 2개의 계층(다른 하나는 데이터 관리자임) 중 하나이다. 이러한 방식으로 매우 민감한 정보는 의심스러운 멀웨어에 액세스할 수 없으며 잘 알려진 신뢰할 수 있는 것으로 입증된 코드에서만 사용할 수 있다. 데이터 매니저(206)는 가상 환경 외부로부터 오는 엔티티 및 데이터 간의 중개자 인터페이스이다. 프레임 워크 코디네이터 (Framework Coordinator)(207)는 반 인공적 또는 인공적 알고리즘의 모든 입력, 출력, 스레드 스폰 및 진단을 관리한다. 가상 난독화(Virtual Obfuscation)(208)는 가상의 가짜 환경으로 점차적으로 그리고 부분적으로 침범함으로써 코드(따라서 잠재적 멀웨어)를 혼동하고 제한한다. 비밀 전송 모듈(209)은 모의 데이터 환경(394)에 멀웨어를 자동 및 개별 전송한다. 목적 비교 모듈(210)을 사용하여, 4 가지 유형의 목적을 비교하여, LIZARD가 시스템의 전체 목적에 대해 생산적으로 기업의 존재와 행동을 인정하고 이해하도록 한다. 잠재적으로 폭이 다른 목적이 악의적인 행동을 나타낸다. 모의 데이터 생성기(211)는 실제 데이터와 구별 할 수 없도록 설계된 가짜 데이터를 생성한다. 즉 SSN의 배치. 가상 환경 관리자 (212)는 모의 데이터의 비율, 이용 가능한 시스템 기능, 네트워크 통신 옵션, 저장 옵션 등과 같은 변수를 포함하는 가상 환경의 구축을 관리한다. 데이터 회수 추적(Data Recall Tracking)(213)은 의심스러운 엔티티(415)로부터 업로드되고 다운로드된 모든 정보를 추적한다. 이는 멀웨어로 잠재적으로 전송되는 중요한 정보의 보안 위험을 완화하기 위해 수행된다. 이 보안 검사는 모의 데이터를 받는 합법적인 기업 프로세스의 병목 문제를 완화한다. 모의 데이터가 합법적인 기업 엔티티로 전송된 경우 모든 모의 데이터를 호출하는 "콜백"이 수행되고 실제 데이터(원래 요청된)가 전송된다.Figures 43 and 44 illustrate the dependency structure of LIZARD (Logically Inferred Zero-Database A priori Real-Time Defense). The static core (193) is where programmers mainly hard-code fixed program modules. The iteration module (194) intelligently modifies, creates, and destroys modules in the dynamic shell (198). For reference on security performance, an artificial security threat (AST) is used, and the iteration core is used to handle the automatic code generation method. The iteration core (195) is the main logic that iterates the dynamic shell (198) for security improvement, as shown in Figure 51. The differential correction algorithm (196) modifies the basic iteration according to the flaws found by the AST. After the differential logic is applied, a new iteration is proposed, and this iteration core is recursively called and goes through the same process that tests in the AST. The logical deduction algorithm (LDA) (197) receives the known security response of the dynamic shell iteration in the current state of the artificial security threat (AST). LDA also infers whether the code set makeup can obtain known correct responses to security scenarios (given in the AST). Dynamic Shell (198) mainly includes dynamic program modules that are automatically programmed by the iteration module. Code Isolation (199) separates foreign code into a restricted virtual environment (i.e., a petri dish). Secret Code Detection (200) detects code that is covertly inserted into data and transmitted packets. The AST Overflow Relay (201) system relays to the AST (17) for future iteration improvement if only low-confidence decisions can be made. Internal Consistency Check (202) checks whether all internal functions of the foreign code block are meaningful. It checks whether there is no code fragment that is internally inconsistent with the purpose of the foreign code as a whole. Foreign Code Rewrite (203) rewrites part or all of the code itself after deriving the purpose of the foreign code and allows only the rewrite to be executed. Mirror testing verifies that the input/output dynamics of the rewrite are identical to the original. In this way, any exploit cases hidden in the original code are not duplicated and executed. Need Map Matching (204) is a layer that maps the referenced purpose and objectives to determine if the external code fits the overall purpose of the system (i.e., the puzzle). The Real Data Synchronizer (205) is one of two layers (the other is the Data Manager) that intelligently selects data in a mixed environment with some priority. In this way, highly sensitive information is inaccessible to suspicious malware and is only available to code that is known to be trustworthy. The Data Manager (206) is an intermediary interface between entities and data coming from outside the virtual environment. The Framework Coordinator (207) manages all inputs, outputs, thread spawning, and diagnostics of the semi-artificial or artificial algorithms. Virtual Obfuscation (208) confuses and limits code (and therefore potential malware) by gradually and partially encroaching into a virtual fake environment. The Covert Transfer Module (209) automatically and individually transfers malware into the simulated data environment (394). The Objective Comparison Module (210) compares four types of objectives to allow LIZARD to productively acknowledge and understand the presence and actions of the entity relative to the overall objectives of the system. Potentially different objectives represent malicious actions. The Simulated Data Generator (211) generates fake data designed to be indistinguishable from real data, i.e., the placement of SSNs. The Virtual Environment Manager (212) manages the construction of the virtual environment, including variables such as the percentage of simulated data, available system functions, network communication options, storage options, etc. The Data Recall Tracking (213) tracks all information uploaded and downloaded from the suspicious entity (415). This is done to mitigate the security risk of sensitive information potentially being transferred to malware. This security check alleviates a bottleneck in the legitimate business process that receives the mock data. If the mock data is sent to a legitimate business entity, a "callback" is performed that calls all mock data and the real data (originally requested) is sent.

도 45는 동적 성장 데이터베이스의 직접적인 도움 없이 실시간으로 잠재적인 모든 사이버 보안 위협을 차단할 수 있는 중앙 감시 알고리즘인 LIZARD (논리적 추론된 제로-데이터 베이스 선험적 실시간 방어)의 개요를 보여준다. 시스템에 대한 데이터/액세스가 허용되는지 여부를 결정하는 것은 알아야 할 필요성, 기능상의 필요성, 목적 중심의 근거에 기반한다. 코드 블록이나 데이터 블록이 시스템의 하드 코딩된 목표를 달성하는 기능/목적을 제공 할 수 없는 경우 가상 격리 및 난독화를 포함하는 은밀한 방식으로 거부된다. LIZARD에는 컴퓨터 코드를 읽고 쓸 수 있는 구문 해석기가 있다. 목표 파생 기능과 결합하여 겉보기에 양성 데이터에 은밀하게 포함된 코드 블록에서도 목표 지향적 동작을 유도할 수 있다. 공공 커피 숍에서 회사 전화와 같은 기업 부지 밖의 모든 기업 장치는 LIZARD를 통해 라우팅된다. 기업 자산을 실행하는 모든 소프트웨어 및 펌웨어는 영구적인 프록시처럼 LIZARD를 통해 모든 종류의 다운로드/업로드를 수행하도록 하드 코드된다. 충성도가 높은 자산에 대한 정책에 따라 영구 프록시 정책을 준수하지 않을 수 있다. 기업 시스템 내에서 발생하는 디지털 전송은 LIZARD를 통해 릴레이되도록 하드 코드된 하드웨어를 통과해야 하므로 악의적인 코드는 안전하지 못하거나 영구 프록시 정책을 무시한 협업된 컴퓨터를 찾을 수 없다. LIZARD는 반복 모듈(IM)과 공생 관계가 있다. IM은 LIZARD의 하드 코딩된 목표 지향적 작업과 구문 이해 능력을 복제한다. 그런 다음 구문론적 기능을 사용하여 하드 코드된 목표에 맞게 LIZARD를 수정한다. 인공 보안 위협(AST) 모듈은 다양한 가상 현실 환경에 종사하여 LIZARD의 다양한 변형을 테스트한다. 최고 점수를 얻은 유사 콘텐츠가 다음 공식 반복으로 선택된다. LIZARD는 사이버 보안 솔루션의 현상 유지에서 벗어난 혁신적인 모델을 제공한다. 고급 논리 추론 능력을 사용하여 동시대의 사이버 보안 방어에 대한 "너무 늦은" 패러다임 없이 즉각적이고 정확한 보안 결정을 수행 할 수 있다. LIZARD는 세 가지 유형의 데이터(동작중인 데이터, 사용중인 데이터 및 휴지중인 데이터)와 상호 작용한다. LIZARD는 파일, 이메일, 웹, 모바일, 클라우드 및 이동식 미디어 (USB)와 같은 6 가지 유형의 데이터 매체(벡터라고 함)와 상호 작용한다. 기업 시스템(228)은 HTTP 및 DNS 등과 같은 인프라 내에서 실행중인 서버의 유형을 도시한다. 모바일 장치(305)는 LIZARD 라이트 클라이언트(43)를 통해 기업 시스템(228) 디지털 인프라에 접속되는 동안 공공 커피 숍(306) 내에서 작동하는 것으로 도시된다. 그러한 클라이언트(43)는 이후에 암호화된 LIZARD 클라우드(308)에 접속하는 인터넷(304)에 대한 게이트웨이로서 동작한다.Figure 45 outlines LIZARD (Logical Inference Zero-Database A priori Real-Time Defense), a central monitoring algorithm that can block all potential cybersecurity threats in real-time without the direct help of a dynamically growing database. Decisions on whether data/access to the system is allowed are based on need-to-know, functional need, and purpose-driven rationale. If a block of code or data cannot provide the function/purpose that achieves the hard-coded goal of the system, it is denied in a covert manner that includes virtual isolation and obfuscation. LIZARD has a syntactic interpreter that can read and write computer code. Combined with goal derivation capabilities, it can induce goal-oriented behavior even from code blocks that are covertly embedded in seemingly benign data. All corporate devices outside the corporate premises, such as corporate phones in public coffee shops, are routed through LIZARD. All software and firmware running corporate assets are hard-coded to perform all types of downloads/uploads through LIZARD as a persistent proxy. Depending on the policy for high-loyalty assets, they may not adhere to the persistent proxy policy. Digital transmissions occurring within the enterprise system must pass through hard-coded hardware to be relayed through LIZARD, so malicious code cannot find a collaborating computer that is insecure or has ignored the persistent proxy policy. LIZARD has a symbiotic relationship with the Iteration Module (IM). The IM replicates LIZARD’s hard-coded goal-oriented tasks and syntactic understanding capabilities. It then modifies LIZARD to fit the hard-coded goals using syntactic capabilities. The Artificial Security Threat (AST) module engages in various virtual reality environments to test different variations of LIZARD. The top-scoring similar content is selected for the next formal iteration. LIZARD provides a revolutionary model that breaks away from the status quo of cybersecurity solutions. It uses advanced logical reasoning capabilities to make immediate and accurate security decisions without the “too late” paradigm of contemporary cybersecurity defenses. LIZARD interacts with three types of data: data in motion, data in use, and data at rest. LIZARD interacts with six types of data carriers (called vectors): files, email, web, mobile, cloud and removable media (USB). The enterprise system (228) illustrates the types of servers running within the infrastructure, such as HTTP and DNS. A mobile device (305) is illustrated operating within a public coffee shop (306) while accessing the enterprise system (228) digital infrastructure via a LIZARD light client (43). Such client (43) then acts as a gateway to the Internet (304) which then accesses the encrypted LIZARD cloud (308).

도 46은 LIZARD에 관한 주요 알고리즘 기능의 개요를 도시한다. LIZARD의 외부 동적 셸(DS)(313)은 반복을 통해 변경되기 쉬운 기능 섹션이다. 목적을 달성하기 위해 고도의 복잡성이 필요한 모듈은 일반적으로 이 쉘(313)에 속한다. 프로그래머 팀이 직접 처리할 수 있는 복잡성 수준을 능가 할 것이기 때문이다. 반복 모듈(314)은 정적 코어(SC)(315)를 사용하여 데이터 반환 릴레이(DRR)(317)의 '고정 목표'및 데이터에서 정의 된 목적에 따라 DS(313)의 코드베이스를 구문론적으로 수정한다. 이 수정된 버전의 LIZARD는 인공 보안 위협(AST)(17)에 의해 다수의 다양한 보안 시나리오와 스트레스 테스트 (병렬)된다. 가장 성공적인 반복이 라이브 기능 버전으로 채택된다. LIZARD의 SC (315)는 자동화된 반복을 통해 변경하기가 쉽지 않으며 대신 인간 프로그래머가 직접 변경한다. 특히 내부 코어(334)로 알려진 가장 안쪽의 사각형은 자동화된 반복의 영향을 전혀 받지 않는다. 이 가장 안쪽 층(334)은 LIZARD의 방향 및 전체 용량을 안내하는 나무의 뿌리와 같다. 일반적인 동적 모듈(General Dynamic Modules)(316)은 자동 셀프 프로그래밍에 가장 많이 적용될 수 있는 모듈 영역이며, 따라서 동적 쉘(313)의 관할권에 속한다. GDM(316)에서 실행되는 이러한 프로그램은 일정한 '베타 '상태(반드시 안정적 일뿐만 아니라 진행중인 작업)에 있다. LIZARD가 낮은 신뢰도 결정을 수행하면 LIZARD의 향후 반복을 개선하기 위해 데이터 반환 릴레이(DRR)(317)를 통해 관련 데이터를 AST(17)에 중계한다. LIZARD 자체는 의사 결정을 수행하는데 데이터에 직접 의존하지 않지만 진화하는 위협에 대한 데이터는 LIZARD의 향후 반복이 수행할 수 있는 선험적인 의사 결정에 간접적으로 도움이 될 수 있다. 레이블(342)은 코드 디자인에 인력이 많이 포함되어 있을수록 코드가 더 정적(매우 점진적으로 변경됨)이라는 것을 보여준다. 반복 모듈(IM)(314)이 코드를 프로그램 할수록 코드는 보다 동적이며 유동적이다. 구문(35) 및 목적(36) 모듈은 SC(315) 내에서 기능하는 것으로 표시된다.Figure 46 illustrates an overview of the key algorithmic features of LIZARD. The outer dynamic shell (DS) (313) of LIZARD is a functional section that is susceptible to change through iteration. Modules that require a high degree of complexity to achieve their goals typically fall into this shell (313), as they will likely exceed the level of complexity that a team of programmers can handle directly. The iteration module (314) syntactically modifies the code base of the DS (313) using the static core (SC) (315) based on the 'fixed goals' of the data return relay (DRR) (317) and the goals defined in the data. This modified version of LIZARD is then stress-tested (in parallel) against a number of different security scenarios by an artificial security threat (AST) (17). The most successful iteration is adopted as the live functional version. The SC (315) of LIZARD is not susceptible to change through automated iteration and is instead modified directly by human programmers. In particular, the innermost square, known as the inner core (334), is completely unaffected by automated iteration. This innermost layer (334) is like the root of the tree that guides the direction and overall capacity of LIZARD. The General Dynamic Modules (316) are the area of modules most applicable to automatic self-programming and therefore fall under the jurisdiction of the Dynamic Shell (313). These programs, which run in the GDM (316), are in a constant 'beta' state (not necessarily stable but also work in progress). When LIZARD makes a low confidence decision, it relays the relevant data to the AST (17) via the Data Return Relay (DRR) (317) to improve future iterations of LIZARD. LIZARD itself does not rely directly on data to make decisions, but data about evolving threats can indirectly help future iterations of LIZARD make a priori decisions. The label (342) shows that the more human input is involved in the design of the code, the more static (i.e., very incrementally changing) the code is. The more the Iteration Module (IM) (314) programs the code, the more dynamic and fluid the code becomes. The syntax (35) and purpose (36) modules are shown to function within the SC (315).

도 47은 정적 코어(SC)(315)의 내부 동작을 보여준다. 논리 유도(Logic Derivation)(320)는 초기에 보다 단순한 함수로부터 논리적으로 필요한 함수를 유도한다. 결과적으로 함수 종속성의 전체 트리는 명시된 복잡한 목적에서 생성된다. 코드 번역(321)은 구문 모듈 기능에 의해 직접 이해되는 임의의 (일반적인) 코드를 선택한 알려진 컴퓨터 언어로 변환한다. 알려진 컴퓨터 언어를 임의 코드로 변환하는 역관계도 수행된다. 규칙과 구문(322)는 구문 구조의 해석과 생성을 돕는 정적 정의를 포함한다. 예를 들어, C ++ 프로그래밍 언어에 대한 규칙 및 구문을(322)에 저장할 수 있다. 논리적 축소(323)는 코드로 작성된 논리를 줄여 양식을 단순화하여 상호 연결된 함수의 맵을 생성한다. 작성된 코드(324)는 최종 결과물인 실행 가능 프로그램이며, 코드 목표(332)는 입력이다. 복합적 목적 형식(Complex Purpose Format)(325)은 전체 목적을 나타내는 상호 연결된 하위 용도를 저장하기 위한 저장 포맷이다. 목적 연관성(326)은 어떤 종류의 목적을 가리키는 행동 및 유형의 기능에 대한 하드 코딩된 참조이다. 반복적 확장(Iterative Expansion)(327)은 세부 목표와 복잡성을 추가하여 목적 연관성을 참조하여 복잡한 목적으로 단순한 목표를 진화시킨다. 반복적인 이해(328)는 상호 연결된 모든 기능을 반복하며 목적 연관성(326)을 참조하여 해석된 목적을 산출한다. 외부 코어(329)는 알려지지 않은 외부 코드에 대한 논리적 목적을 유도하고 명시된 기능 코드 목표에서 실행 가능한 코드를 생성하기 위해 함께 작동하는 구문 및 목적 모듈에 의해 주로 형성된다. 외부 코드(330)은 LIZARD에 알려지지 않은 코드이며 기능 및 의도된 목적을 알 수 없다. 외부 코드(330)은 내부 코어에 대한 입력이지만 파생된 목적(331)은 출력이다. 목적(331)은 목적 모듈(36)에 의해 추정된 주어진 코드(330)의 의도이다. 그것은 복합 목적 형식(325)으로 반환된다.Figure 47 shows the internal workings of the static core (SC) (315). Logic derivation (320) initially derives logically necessary functions from simpler functions. As a result, a complete tree of functional dependencies is generated from the specified complex purpose. Code translation (321) converts arbitrary (general) code directly understood by the syntax module functions into a selected known computer language. The inverse relationship of converting a known computer language into arbitrary code is also performed. Rules and syntax (322) include static definitions that help in the interpretation and generation of syntactic structures. For example, rules and syntax for the C++ programming language can be stored in (322). Logical reduction (323) reduces the logic written in the code to simplify the form and generate a map of interconnected functions. The written code (324) is the final output, an executable program, and the code goal (332) is the input. The Complex Purpose Format (325) is a storage format for storing interconnected sub-purposes representing the overall purpose. Goal associations (326) are hard-coded references to actions and types of functions that point to some kind of goal. Iterative Expansion (327) evolves simple goals into complex goals by referencing goal associations by adding sub-goals and complexity. Iterative Understanding (328) iterates over all interconnected functions and produces an interpreted goal by referencing goal associations (326). The outer core (329) is formed primarily by syntax and goal modules that work together to derive logical goals for unknown outer code and generate executable code from the stated functional code goals. The outer code (330) is code unknown to LIZARD and its functions and intended goals are unknown. The outer code (330) is the input to the inner core, while the derived goal (331) is the output. The goal (331) is the intent of the given code (330) as inferred by the goal module (36). It is returned in the form of a compound goal (325).

도 48은 내부 코어(334)가 시스템의 필수 핵심 기능을 어떻게 유지 하는지를 보여주는데, 이는 유지(318) 플랫폼을 통해 관련 사이버 보안 전문가(319)에 의해 직접 및 독점적으로 프로그래밍된다. 코어 코드(335)는 LIZARD를 실행하는데 필요한 기본적인 기초 지식이다. 코어(336)내에서 기본 체계 및 라이브러리(336)에는 압축 및 비교 기능과 같은 LIZARD를 작동시키는데 필요한 모든 기능이 있다. 코어(336)에서 스레드 관리 & 로드 균형(337)을 사용하면 LIZARD가 서버 클러스터를 효율적으로 확장 할 수 있으며 통신 및 암호화 프로토콜은 암호화 유형(예: AES, RSA 등)을 정의한다. 코어(336)에서 메모리 관리(339)는 LIZARD가 해석하고 처리한 데이터를 서버의 RAM(Random Access Memory)에서 효율적으로 관리 할 수 있다. 시스템 목표(336)는 보안 정책(340) 및 기업 목표(341)를 포함한다. 정책(340)은 사이버 보안 분석가 (또는 다수)에 의해 수동으로 설계되어, 사용자 정의 변수에 따라 동작하도록 참조될 수 있다. 그러므로 LIZARD는 안전하지 못하고 금지된 행동이 무엇인지 그리고 무엇이 허용되는지 정당화하는 표준을 가지고 있다. 예를 들어 기업 외부의 수신자에게 전자 메일을 보내지 못하게 하거나 세 번째 암호 입력 시도가 실패한 후 계정을 잠그는 것은 기업의 보안 정책(340)에 있을 수 있다. 기업 목표(341)는 기업이 달성하고자 하는 일반 인프라의 유형에 대한 보다 광범위한 특성을 정의한다. 목표(341)는 주로 LIZARD의 기능과 기업의 인프라 문맥과 관련하여 수행 해야 하는 기능에 대해 동적 쉘(313)의 자체 프로그래밍을 안내하는 데 사용된다.FIG. 48 shows how the inner core (334) maintains the essential core functions of the system, which are programmed directly and exclusively by the relevant cybersecurity experts (319) via the maintenance (318) platform. The core code (335) is the basic foundation knowledge required to run LIZARD. Within the core (336), the basic structure and libraries (336) contain all the functions required to operate LIZARD, such as compression and comparison functions. Thread management & load balancing (337) in the core (336) allows LIZARD to efficiently scale out a server cluster, and the communication and encryption protocols define the encryption type (e.g. AES, RSA, etc.). Memory management (339) in the core (336) allows LIZARD to efficiently manage the data interpreted and processed by LIZARD in the server's RAM (Random Access Memory). The system goals (336) include the security policy (340) and the corporate goals (341). The policy (340) may be manually designed by a cybersecurity analyst (or multiple) and referenced to act on user-defined variables. Therefore, LIZARD has standards that justify what is unsafe and prohibited behavior and what is allowed. For example, preventing email from being sent to recipients outside the company or locking an account after a third failed password entry attempt may be in the company's security policy (340). The company's goals (341) define broader characteristics of the type of general infrastructure that the company is trying to achieve. The goals (341) are primarily used to guide the self-programming of the dynamic shell (313) regarding the functions that LIZARD should perform in relation to its functionality and the context of the company's infrastructure.

도 49는 동적 쉘(DS)(313)의 내부 동작을 나타낸다. LIZARD의이 섹션은 주로 인위적으로 지능적인 프로그래밍 모듈(반복 모듈)에 의해 조작된다. 외부 쉘(345)의 모듈은 전체 시스템의 의사 결정에 가벼운 영향을 미치는 새롭고 실험적인 모듈이다. 내부 쉘(344)는 LIZARD의 주체이다. 대부분의 지능형 기능이 작동한다. 새롭고 실험적인 알고리즘(343) '베타'는 소프트웨어 공간을 할당했는데, 여기서 새로운 모듈의 기능적 필요성은 인간, 인공 지능 또는 둘 모두에 의해 프로그래밍되고 테스트 될 수 있다.Figure 49 shows the internal workings of the dynamic shell (DS) (313). This section of LIZARD is primarily manipulated by artificially intelligent programming modules (repetitive modules). Modules in the outer shell (345) are new and experimental modules that have a light influence on the decision-making of the overall system. The inner shell (344) is the body of LIZARD. Most of the intelligent functions operate there. New and experimental algorithms (343) 'beta' have allocated software space where the functional needs of new modules can be programmed and tested by humans, artificial intelligence, or both.

도 50은 동적 쉘(313)에서 모듈을 지능적으로 수정, 생성 및 파괴하는 반복 모듈(IM)을 보여준다. 보안 성능에 대한 참조를 위해 인공 보안 위협 (AST)(17)을 사용하고 자동 코드 작성 방법론을 처리하기 위해 반복 코어(347)을 사용한다. 데이터 반환 릴레이(DDR)(317)에서는 LIZARD가 낮은 신뢰를 바탕으로 결정을 내려야 할 때 악의적인 공격 및 나쁜 행위자에 대한 데이터가 AST(17)에 전달된다. AST(17)는 시뮬레이션된 보안 위협이 있는 가상 테스트 환경을 만들어 반복 프로세스를 활성화한다. AST(17)의 인공적인 진화는 범죄적인 악의적 인 사이버 활동의 유기적 진화를 앞당기기에 충분하다. 정적 코어 클로닝(346)에서는 반 동적 외부 코어(329)를 포함하는 정적 코어(315)가 반복 안내의 기준으로 사용된다. 이 반복은 부분적으로 외부 코어(329)를 수정하기 때문에; 인위적으로 지능적인 루프에서 자체 프로그래밍이 전체 주기로 진행되었다. 반복 코어(347)은 동적 쉘(313)을 변경하기 위한 인공 보안 시나리오 및 시스템 목표 지침을 수신한다. 반복 코어(347)은 많은 반복을 생성한다. 인위적인 보안 테스트에서 최상을 수행하는 반복은 단계(348)에서 동적 쉘의 라이브 작동 반복이 되도록 업로드된다.Fig. 50 shows an iterative module (IM) that intelligently modifies, creates and destroys modules in a dynamic shell (313). An artificial security threat (AST) (17) is used for reference on security performance and an iterative core (347) is used to process the automatic code generation methodology. In the data return relay (DDR) (317), data on malicious attacks and bad actors are passed to the AST (17) when LIZARD needs to make a decision based on low confidence. The AST (17) creates a virtual test environment with simulated security threats to activate the iterative process. The artificial evolution of the AST (17) is sufficient to advance the organic evolution of criminal malicious cyber activities. In the static core cloning (346), a static core (315) containing a semi-dynamic outer core (329) is used as a reference for iterative guidance. Since this iteration partially modifies the outer core (329); self-programming in an artificially intelligent loop has been carried out in full cycle. The iteration core (347) receives artificial security scenarios and system goal instructions for modifying the dynamic shell (313). The iteration core (347) generates many iterations. The iteration that performs best in the artificial security tests is uploaded to become a live operating iteration of the dynamic shell in step (348).

도 51은 보안 향상을 위한 코드를 반복하는 주된 논리인 반복 코어(Iteration Core)(347)를 도시한다. 재귀적 반복(Rearseive Iteration)(350)에서는 기본 반복(356)을 대체하는 새로운 반복(355)과 함께 반복 코어(347)의 새 인스턴스가 호출된다. 이러한 전환은 코어 코드(335)의 부분 집합인 인스레드 관리 & 로드 균형(337)로부터 도출된 스레드 관리(349)에 의해 관리된다. 차분 수정 알고리즘(DMA)(353)은 내부 코어(334)로부터 구문/ 목적 자동화 프로그래밍 능력(351) 및 시스템 목적 지침(352)을 수신한다. 이들 두 입력은 기본 체계 및 라이브러리(336) 및 보안 정책(340)/ 기업 목표(341)와 상관 관계가 있다. 그런 다음 AST(17)에서 발견된 결함에 따라 기본 반복(356)을 수정하기 위해 이러한 코드 세트를 사용한다. 차등 논리가 적용된 후, 새로운 반복(355)이 제안되며, 반복 코어(347)가 재귀적으로 호출되고 AST(17)에서 동일한 테스트 과정을 거친다. 대기중인 보안 시나리오(360)에서는 모든 알려진 보안 지점에서 동적 쉘(313)에 대한 포괄적인 테스트를 집합적으로 수행하는 여러 시나리오가 있다. 활성 보안 시나리오 (361)에서는 현재 활성 보안 시나리오가 격리된 가상 실행 환경(357)에서 동적 셸(313)을 테스트하고 있다. 이러한 환경(357)은 실제 시스템과 완전히 별개의 가상 인스턴스이다. 인위적으로 생성된 악의적인 공격과 침입을 수행한다. 보안 결과 결함(362)는 가상 실행 환경(357)을 실행하는 동안 기본 반복(356)을 '통과 한'보안 위협을 나타내기 위해 시각적으로 표시된다. 그 후 발견된 임의의 결함(363)은 DMA(353)로 전송되어 그러한 결함을 생략하고자 하는 새로운 반복(355)의 생성을 용이하게 한다.FIG. 51 illustrates the Iteration Core (347), which is the main logic for iterating the code for security enhancement. In the Recursive Iteration (350), a new instance of the Iteration Core (347) is called along with a new iteration (355) that replaces the primary iteration (356). This transition is managed by the Thread Management (349) derived from the In-Thread Management & Load Balancing (337), which is a subset of the Core Code (335). The Differential Modification Algorithm (DMA) (353) receives the Syntax/Objective Automation Programming Capabilities (351) and the System Objective Instructions (352) from the Inner Core (334). These two inputs are correlated with the Base System and Libraries (336) and the Security Policy (340)/Enterprise Goals (341). This set of code is then used to fix the primary iteration (356) based on the flaws found in the AST (17). After the differential logic is applied, a new iteration (355) is proposed, where the iteration core (347) is recursively called and goes through the same test process in the AST (17). In the pending security scenario (360), there are multiple scenarios that collectively perform comprehensive testing on the dynamic shell (313) at all known security points. In the active security scenario (361), the currently active security scenario is testing the dynamic shell (313) in an isolated virtual execution environment (357). This environment (357) is a completely separate virtual instance from the real system. It performs artificially generated malicious attacks and intrusions. Security result flaws (362) are visually displayed to indicate security threats that 'passed' the primary iteration (356) while executing the virtual execution environment (357). Any flaws (363) discovered thereafter are forwarded to the DMA (353) to facilitate the creation of a new iteration (355) that seeks to omit such flaws.

도 52 내지 도 57은 차등 수정 알고리즘(DMA)(353)의 논리 프로세스를 도시한다. 현재 상태(365)는 상징적으로 상관된 모양, 크기 및 위치를 갖는 동적 쉘(313) 코드 세트를 나타낸다. 이러한 모양의 다른 구성은 보안 인텔리전스 및 반응의 다른 구성을 나타낸다. AST(17)은 잘못된 것으로 밝혀진 현재 상태(365)의 잠재적 응답을 제공하고 올바른 응답(즉 바이러스이므로 이 파일을 격리)을 제공한다. 공격 벡터(370)(모두 점선으로 표시된 화살표)은 사이버 보안 위협에 대한 상징적인 표시 역할을 한다. 방향, 크기 및 색상은 모두 공격 경로, 멀웨어 크기 및 멀웨어 유형과 같은 가설적인 보안 속성과 관련된다. 공격 벡터는 코드 세트의 보안 응답을 나타내기 위해 코드 세트에서 상징적으로 '튀어 오른다'. 참조 A(Ref. A)(367)은 공격 벡터가 통과하도록 허용하는 특정 보안 구성을 보여 주며, 올바른 보안 응답 일 수도 있고 아닐 수도 있다. 참조 B(Ref. B)(368)은 잠재적으로 정확하거나 부정확한 동안 참조 A에 대한 대체 응답 유형을 보여주는 보안 구성에서 튀어 나오는 공격 벡터를 보여준다. 참조 C(Ref. C)(369)는 공격 응답 벡터를 발신지로 되돌려 보내는 보안 응답을 나타내며, 이는 정확한 보안 응답 일 수도 있고 그렇지 않을 수도 있다. 도 53에서, 수정 상태(354)는 동적 쉘(313)의 코드 블록으로부터 원하는 보안 응답을 생성하기 위한 차분 수정 알고리즘(353) 프로세스의 최종 결과를 나타낸다. 수정 상태(354)는 동적 쉘(313)의 새로운 반복(355)을 재귀적으로 반복하여(350) 생성된다. 현재(365)와 수정(354) 상태간에 미묘한 차이가 있지만 이러한 차이로 인해 완전히 다른 공격 벡터(370) 응답이 발생할 수 있다. 참조 A(367)은 공격 벡터를 통과 시키지만 참조 A(371)(올바른 보안 응답)은 공격 벡터를 올바른 각도로 수신한다. 현재(365) 및 수정(354) 상태의 참조 B에 대한 공격 벡터 응답은 변경되지 않는다. 참조 C(373)의 경우, 공격 벡터는 참조 C(369)와는 다른 위치에도 불구하고 원래 소스로 되돌려 보내진다. 이 모든 공격 벡터 프레젠테이션은 보안 위협의 병목 관리를 설명하고 이에 대응한다. 도 54는 AST(17)에 의해 제공되는 일련의 공격인 AST 보안 공격 벡터(375)를 도시한다. 올바른 보안 응답(376)은 공격 벡터들(370)에 관한 원하는 보안 응답을 나타낸다. 정확한 보안 응답을 생성하는 코드 세트(모양)는 아직 알려지지 않은 이 단계에서 표시되지 않는다. 도 55는 올바른 동적 쉘 반응 공격(378)에 대한 열등한 보안 응답을 나타내는 현재 동적 쉘 반응 공격(377)을 도시한다. 이러한 수정 응답 (378)은 논리 추론 알고리즘(LDA)(197)에 의해 생성된다. 도 56은 LDA(197)가 어떻게 올바른 공격 응답 (378)과 일치하도록 정확한 보안 설정을 유추 하는지를 도시한다. 정적 코어(315)는 정정 공격 응답(378)을 생성하는 보안 프로그램을 구성할 수 있도록 LDA(379)에 시스템 체계/ 지침(352) 및 구문 / 목적 자동화된 프로그래밍 능력(351)을 제공한다. 동적 셸(313)의 기본 반복(356)은 단계(381)에서 LDA(379)에 제공된다. 이러한 반복은 표준 이하 및 비 효과적인 보안 응답을 생성하는 보안 응답 프로그램(382)으로 표현된다. 이러한 프로그램(382)은 LDA(379)에 대한 입력으로서 제공된다. LDA는 정적 코어(315)로부터의 구문 / 목적 기능(351)을 사용하여 올바르지 않은 보안 응답 프로그램(382)으로부터 구축하여 올바른 응답 공격(378)과 일치하게 한다. 보안 응답 프로그램(383)이 생성되고 동적 쉘(313)의 새로운 반복(355)으로 간주된다. 반복 코어(347)의 재귀적 반복(350)을 통해 프로세스가 계속 진행되면 동적 쉘(313)의 보안 기능이 지속적으로 업그레이드되어 모든 보안 정보는 AST(17)에서 사용할 수 있다. 도 57은 AST(17)가 정확한 보안 응답(384)과 함께 알려진 보안 결함(364)을 제공함에 따라 이 프로세스의 간략한 개요를 나타낸다. AST(17)가 알려진 보안 결함(364) 및 응답(384)을 제공 할 수 있지만, 그러한 정정 응답(384)을 생성하는 유효하고 실행중인 프로그램을 구성할 수 없다. 따라서, LDA(379)는 동적 쉘(313)의 이전(기본) 반복(356)을 사용하여 올바른 보안 응답 프로그램(385)라고하는 동적 쉘의 보다 우수하고 잘 갖춰진 반복(355)을 생성한다. '프로그램'이라는 단어의 사용은 동적 쉘(313) 내에서 작동하는 다양한 기능과 하위 모듈의 전반적인 기능을 나타낸다.Figures 52 through 57 illustrate the logic process of the Differential Modification Algorithm (DMA) (353). The current state (365) represents a set of codes of a dynamic shell (313) having symbolically correlated shapes, sizes and locations. Different configurations of these shapes represent different configurations of security intelligence and responses. The AST (17) provides potential responses to the current state (365) that are found to be incorrect and provides a correct response (i.e. quarantine this file because it is a virus). The attack vector (370) (all dotted arrows) serves as a symbolic representation of a cyber security threat. The direction, size and color are all related to hypothetical security properties such as the attack path, malware size and malware type. The attack vector symbolically 'pops' out of the code set to represent the security response of the code set. Reference A (Ref. A) (367) shows a specific security configuration that allows the attack vector to pass through, which may or may not be the correct security response. Reference B (Ref. B) (368) shows an attack vector popping out of the security configuration showing an alternative response type to Reference A while potentially being correct or incorrect. Reference C (Ref. C) (369) shows a security response that sends the attack response vector back to the source, which may or may not be the correct security response. In FIG. 53, the modified state (354) shows the final result of the differential modification algorithm (353) process for generating a desired security response from the code blocks of the dynamic shell (313). The modified state (354) is generated by recursively iterating (350) a new iteration (355) of the dynamic shell (313). There are subtle differences between the current (365) and modified (354) states, but these differences can result in completely different attack vector (370) responses. Reference A (367) passes the attack vector through, but Reference A (371) (the correct security response) receives the attack vector at the correct angle. The attack vector response for reference B in the current (365) and modified (354) states is not changed. For reference C (373), the attack vector is sent back to the original source, albeit in a different location than reference C (369). All of these attack vector presentations illustrate and counter the bottleneck management of security threats. Fig. 54 illustrates an AST security attack vector (375), which is a series of attacks provided by the AST (17). The correct security response (376) represents the desired security response with respect to the attack vectors (370). The code set (shape) that generates the correct security response is not yet known and is not shown at this stage. Fig. 55 illustrates a current dynamic shell response attack (377) that represents an inferior security response to a correct dynamic shell response attack (378). This modified response (378) is generated by a logical deduction algorithm (LDA) (197). Figure 56 illustrates how LDA (197) infers correct security settings to match correct attack responses (378). The static core (315) provides LDA (379) with system structure/instructions (352) and syntax/purpose automated programming capabilities (351) to construct a security program that generates correct attack responses (378). A basic iteration (356) of the dynamic shell (313) is provided to LDA (379) at step (381). This iteration is represented as a security response program (382) that generates substandard and ineffective security responses. This program (382) is provided as input to LDA (379). LDA uses syntax/purpose capabilities (351) from static core (315) to build from the incorrect security response program (382) to match the correct response attack (378). A security response program (383) is generated and considered a new iteration (355) of the dynamic shell (313). As the process continues through recursive iterations (350) of the iteration core (347), the security features of the dynamic shell (313) are continuously upgraded so that all security information is available to the AST (17). Fig. 57 shows a brief overview of this process as the AST (17) provides a known security flaw (364) along with a correct security response (384). Although the AST (17) can provide the known security flaw (364) and the response (384), it cannot construct a valid and running program that generates such a correct response (384). Therefore, the LDA (379) uses the previous (base) iteration (356) of the dynamic shell (313) to generate a better and more complete iteration (355) of the dynamic shell, called the correct security response program (385). The use of the word 'program' refers to the overall functionality of the various functions and submodules that operate within the dynamic shell (313).

도 58은 가상의 난독화의 개요를 보여준다. 가상 난독화 및 모의 데이터 생성의 다음 기능은 암호화된 클라우드 플랫폼에 배포되어 사이버 보안 직원이 거의 없는 중소기업에서 사용할 수 있다. 보안 시스템은 대기업용 데이터 센터에 직접 설치할 수도 있다. 이 경우, 멀웨어(385)는 인터넷(304)을 형성하고 산업 표준 방화벽/ 침입 탐지 시스템/ 안티 바이러스 등을 우회(bypass)한다. 보안 반복의 현재 상태에서 LIZARD(16)은 들어오는 코드 블록(385)의 의도/ 목적에 대한 신뢰도 평가가 낮다. 이러한 조건은 최악의 시나리오로 가정한다. 따라서 권한이 부여된 중요 데이터가 없는 무고한 프로세스를 줄이고 악성 코드가 중요한 데이터를 보유할 수 있는 위험을 방지하기 위해 문제의 코드(385)는 데이터의 절반이 지능적으로 혼합된 환경에 몰래 할당된다. 실제 시스템(388)은 일반적인 관리 액세스 요구 사항을 제외하고 실제 데이터(389)에 제한되지 않음을 나타낸다. 실제 시스템(388) 내에서 작동하는 모든 주체는 가상 격리(390)로 인해 부분적으로(391) 또는 완전(394) 모의 데이터 환경으로 쉽고 은밀하게 전송될 수 있다. 실제 데이터 동기화 장치(386)는 혼합 환경에 부여할 데이터와 우선 순위를 지능적으로 선택하는 2개의 층(다른 하나는 데이터 관리자(401)) 중에서 하나이다. 이런 식으로 매우 민감한 정보는 멀웨어가 의심되는 경우에는 액세스 할 수 없으며 잘 알려져 있으며 신뢰할 수 있는 것으로 입증된 코드에서만 사용할 수 있다. 모의 데이터 생성기(387)는 모조품 및 쓸데없는 데이터를 만들기 위한 템플릿으로 실제 데이터 동기화 장치(386)를 사용한다. 데이터 유형, 데이터 형식, 데이터 밀도, 데이터 세부 사항 등과 같은 속성은 실제 데이터(389)에서 모방되어 시스템에 잘 통합된 것으로 보이는 실제 데이터를 가진 데이터베이스를 만든다(관련성이 없고 이상한 데이터는 없음). 들어오는 외부 코드의 인식에 대한 확신의 위험은 LIZARD(16)가 선택한 난독화 수준에 영향을 미친다. 악의적인 코드에 대한 높은 확신은 대량의 모의 데이터(Mock Data)(394)가 포함된 환경으로의 할당을 호출한다. 악의적인 코드에 대한 신뢰가 낮으면 실제 시스템(388)(의심의 이익으로 간주됨) 또는 100 % 모의 데이터 환경(394)(기본적으로 비 신뢰로 간주 됨)에 할당 할 수 있다. 보안 행동의 이러한 사용자 지정 옵션은 내부 코어(334)의 서브 세트인 시스템 목표(336)의 서브 세트인 보안 정책(340)에 정의되어있다. 고도로 모니터링되는 네트워크 인터페이스(392)는 모의 데이터 (393)를 포함하는 환경에서 사용된다. 가상의 격리(390)와 함께 실제 시스템(388)과 같은 제한된 환경으로 유출되지 않도록 환경을 보호하는 데 사용된다. 이러한 격리(390)는 가상화 기술을 사용하여 RAM과 CPU 스레드를 혼합하여 각 환경을 자체 환경으로 분리한다 .Figure 58 shows an overview of the virtual obfuscation. The following features of virtual obfuscation and mock data generation can be deployed on an encrypted cloud platform and used by small and medium-sized businesses with few cybersecurity staff. The security system can also be installed directly in a data center for a large enterprise. In this case, the malware (385) forms the Internet (304) and bypasses industry standard firewalls/intrusion detection systems/antiviruses, etc. In the current state of the security iteration, LIZARD (16) has a low confidence assessment of the intent/purpose of the incoming code block (385). This condition is assumed to be the worst-case scenario. Therefore, in order to reduce innocent processes without privileged critical data and prevent the risk of malware having critical data, the code (385) in question is secretly assigned to an environment where half of the data is intelligently mixed. The real system (388) is shown to be unrestricted to the real data (389) except for general administrative access requirements. Any entity operating within the real system (388) can be easily and covertly transferred to a partially (391) or fully (394) mock data environment due to the virtual isolation (390). The real data synchronization device (386) is one of two layers (the other being the data manager (401)) that intelligently selects which data to give to the mixed environment and what priorities to give to it. In this way, highly sensitive information cannot be accessed in case of suspected malware and can only be used by code that is well known and proven to be trustworthy. The mock data generator (387) uses the real data synchronization device (386) as a template for creating fake and useless data. Attributes such as data type, data format, data density, data detail, etc. are mimicked from the real data (389) to create a database with real data that appears to be well integrated into the system (no irrelevant and strange data). The risk of confidence in the recognition of incoming foreign code affects the level of obfuscation chosen by LIZARD (16). High confidence in the malicious code calls for assignment to an environment containing a large amount of mock data (394). Low confidence in the malicious code can be assigned to a real system (388) (considered as having the benefit of the doubt) or a 100% mock data environment (394) (considered as untrusted by default). These customization options for security behavior are defined in a security policy (340), which is a subset of the system goals (336), which is a subset of the internal core (334). A highly monitored network interface (392) is used in the environment containing mock data (393). This, along with virtual isolation (390), is used to protect the environment from leaking into a restricted environment such as the real system (388). This isolation (390) uses virtualization techniques to isolate each environment into its own environment by mixing RAM and CPU threads.

도 59 내지 도 61은 가상 난독화의 모니터링 및 응답 측면을 보여준다. 이러한 시스템은 멀웨어 동작에 따라 멀웨어(385)를 모니터링하고 관리한다. 초기에 LIZARD는 현재의 반복화 수준에서 악성 코드일 수도 있고 그렇지 않을 수 도 있는 코드 블록을 인지한다. 멀웨어가 아닌 경우 LIZARD는 이를 50% 모의 데이터(391)로 구성된 실제 시스템의 가상 복제본으로 푸시한다. 이는 멀웨어가 아닌 것으로 밝혀지면 시스템 및 기업 기능이 크게 방해 받지 않도록(즉, 잘못된 SSN이 제공되는 등) 수행된다. 도시된 예에서 코드 블록은 실제로 멀웨어(385)이지만이 단계에서 LIZARD는이 위협 및 개발 방법의 새롭고 알려지지 않은 특성으로 인해 여전히 확실하지 않다. 도 60은 LIZARD가 멀웨어인지 여부가 아직 확실하지 않기 때문에 멀웨어(385)가 가상으로 격리된(380) 모의 데이터 환경(391)에 숨겨지는 방식을 구체적으로 보여준다. 데이터 관리자(401)는 실제 데이터와 모의 데이터를 지능적으로 혼합하여 매우 민감한 데이터가 노출되지 않도록 한다. 관리자(401)는 멀웨어(385)에 의해 생성된 정보를 모의 데이터 저장소(400)에 업로드(402)하고(402) 이전에 저장된 모의 데이터를 다운로드(398)하여 실제 데이터(397)와 혼합한다. 이렇게하면 멀웨어는 실제 데이터 저장소(397)에 대한 쓰기 권한이 없으며 민감한 정보를 무시할 수 없다. 멀웨어(385)는 사실상 격리 됨(380)이므로 데이터 관리자(401)에만 노출된다. 이 가상 격리는 멀웨어가 데이터 관리자(401)를 우회하여 모든 실제 데이터(397)에 액세스하는 것을 금지한다. 행동 분석(403)은 의심스러운 코드 블록의 다운로드(398) 및 업로드(402) 동작을 추적하여 잠재적인 시정 조치를 결정한다. 분석(403)은 LIZARD의 원래 의혹을 확인하거나 거부하는데 도움이 되도록 멀웨어(385)가 자연스러운 형태로 작동하는 방식을 모니터링한다. LIZARD는 외부 코드가 실제로 멀웨어인지에 대한 최초의 의혹을 확인시켜 준다. 멀웨어(385)는 암묵적으로 그리고 은밀하게 비밀 전환 모듈(395)을 통해 100% 모의 데이터 가상 환경(394)으로 전송된다. 멀웨어가 이미 50 % 모의 데이터 환경(391)에서 증식 및 감염된 경우에만 예방 조치로 전체 가상 환경이 안전하게 파괴된다(멀웨어 포함). 이 단계에서 멀웨어(385)는 이제 민감한 정보에 노출되지 않고 모의 환경(394)에 완전히 숨겨지게 된다. 숨은 통신 채널을 통해 멀웨어와 홈베이스(즉, 하트 비트 신호) 간의 잠재적 통신을 모니터링하여 향후 동적 쉘(313) 반복을 잠재적으로 개선 할 수 있다. 이러한 멀웨어 거동 정보는 데이터 반환 릴레이(DRR)(317)를 통해 AST(17)로 전송되어 향후 반복에 도움이 된다. 이렇게 하면 DS(313)는 50 % 모의 데이터 환경(391)에 다시 배치하는 대신(훔친 합법적인 데이터와 관련하여 여전히 위험을 안고 있음) 유사한 멀웨어(385)에 대한 보다 확신 있는 결정을 내릴 수 있다.Figures 59 through 61 illustrate the monitoring and response aspects of virtual obfuscation. The system monitors and manages malware (385) based on its behavior. Initially, LIZARD recognizes a block of code that may or may not be malware at the current iteration level. If it is not malware, LIZARD pushes it to a virtual replica of the real system consisting of 50% mock data (391). This is done so that if it is found to be non-malware, the system and enterprise functions are not significantly disrupted (i.e., incorrect SSNs are provided, etc.). In the illustrated example, the block of code is indeed malware (385), but at this stage LIZARD is still uncertain due to the novel and unknown nature of this threat and its development methods. Figure 60 illustrates specifically how the malware (385) is hidden in a virtual isolated (380) mock data environment (391) since it is not yet certain whether LIZARD is malware. The data manager (401) intelligently mixes real and mock data to ensure that highly sensitive data is not exposed. The manager (401) uploads (402) information generated by the malware (385) to the simulated data store (400) and downloads (398) previously stored simulated data and mixes it with real data (397). This ensures that the malware has no write access to the real data store (397) and cannot override sensitive information. The malware (385) is effectively isolated (380) and is therefore only exposed to the data manager (401). This virtual isolation prevents the malware from bypassing the data manager (401) and accessing any real data (397). Behavioral analysis (403) tracks the download (398) and upload (402) behavior of the suspicious code block to determine potential corrective actions. Analysis (403) monitors how the malware (385) behaves in its natural form to help confirm or deny LIZARD's original suspicions. LIZARD confirms the initial suspicion that the external code is in fact malware. The malware (385) is then implicitly and covertly transferred to the 100% mock data virtual environment (394) via the covert transfer module (395). As a precaution, the entire virtual environment (including the malware) is safely destroyed only if the malware has already propagated and infected the 50% mock data environment (391). At this stage, the malware (385) is now completely hidden in the mock environment (394) without being exposed to any sensitive information. Potential communication between the malware and its home base (i.e., heartbeat signals) via the covert communication channel can be monitored to potentially improve future iterations of the dynamic shell (313). This malware behavior information is then transferred to the AST (17) via the data return relay (DRR) (317) to aid future iterations. This allows the DS (313) to make a more confident decision about similar malware (385) instead of deploying it back to the 50% mock data environment (391) (which still carries a risk with respect to the stolen legitimate data).

도 62 및 도 63은 데이터 회수 추적(399)이 의심되는 엔티티(415)로부터 업로드되고 의심되는 엔티티(415)로 업로드된 모든 정보를 추적하는 것을 도시한다. 이는 멀웨어에 잠재적으로 전송되는 중요한 정보의 보안 위험을 완화하기 위해 수행된다. 이 보안 검사는 또한 모의 데이터(Mock Data)(400)를 수신하는 합법적인 기업 프로세스의 병목 문제를 완화한다. 모의 데이터가 합법적인 기업 엔티티로 전송된 경우, 모의 데이터(Mock Data) 및 실제 데이터 (원래 요청된)가 대체품으로 전송된다. 콜백 트리거는 합법적인 기업 엔티티가 데이터가 위조가 아니라는 확인이 있을 때까지 특정 정보에 대한 조치를 보류 할 수 있도록 구현된다. 실제 데이터가 가상 혼합 환경 내의 멀웨어로 전송 된 경우 전체 환경 컨테이너가 멀웨어(385) 내부에서 안전하게 파괴된다. 파괴되기 전에 멀웨어가 소유하고있는 것으로 알려진 데이터와 관련된 비정상적인 활동에 대해 시스템 전체에 경고가 표시된다. 이 개념은 시스템 전반 모니터링(405)에서 나타난다. 부분적인 실제 데이터를 받은 엔티티가(동작 패턴을 분석 할 때) 멀웨어로 밝혀지면 멀웨어를 포함한 가상 환경이 안전하게 파괴되고 태그가 있는 실제 데이터의 비정상적인 활동에 대해 전사적 네트워크가 모니터링된다. 이렇게 하면 잠재적인 정보 유출이 방지된다. 모의 데이터 다운로드 추적(407) 및 모의 데이터 업로드 추적(408)에서; 가상 컨테이너에서 의심스러운 개체(415)와 주고받는 모의 데이터가 추적된다. 업로드 안전성에 대한 정보(410)에서, 처음에는 보호 장치로서 모의 데이터 수집부(400)에 기록된 데이터는 나중에 안전하다고 간주되므로 의심스러운 엔티티(415)의 업로드(402) 요청을 수행하기 위해 실제 데이터(412)에 기록 될 준비가 된다. 업로드 릴레이(411)는 그러한 표시된 안전 정보를 실제 데이터(412)로 전달한다. 합법적인 기업 엔티티 (멀웨어가 아닌)가 모의 데이터(400)를 수신 한 경우, 모의 데이터 존재의 정도에 대한 정보(413)이다. 실제 데이터 (412)는 모의 데이터를 정확하게 대체하기 위해 업로드 된다. 데이터 회수 트리거(414)는 혼합 데이터 환경이 잠재적으로 활성화되었다는 것을 나타내는 숨은 신호를 검사하는 합법적인 엔티티(및 부주의하게, 합법적으로 보이려고 시도하는 악의적인 엔티티)에서 수행되는 소프트웨어의 설치이다. 데이터 관리자(401)는 모의 데이터(400) (존재한다면)와 혼합되어야 하는 실제 데이터(412)의 비율을 계산하는 데이터와 엔티티(415) 간의 중개자 인터페이스이다. 정보의 업로드(402) 및 다운로드(398) 스트림에서, 데이터 회수 트리거(414)가 데이터의 반전을 고려하기 위해 개별 패킷들/ 파일들이 (필요하다면) 표시된다.Figures 62 and 63 illustrate that the data recovery tracking (399) tracks all information uploaded from and to the suspected entity (415). This is done to mitigate the security risk of potentially transmitting sensitive information to malware. This security check also alleviates the bottleneck problem of the legitimate enterprise process receiving the Mock Data (400). If the Mock Data is transmitted to the legitimate enterprise entity, the Mock Data and the real data (originally requested) are transmitted as replacements. A callback trigger is implemented so that the legitimate enterprise entity can withhold action on a particular piece of information until it is verified that the data is not forged. If the real data is transmitted to the malware within the virtual mixed environment, the entire environment container is securely destroyed within the malware (385). Before the destruction, a system-wide alert is displayed for any unusual activity related to data known to be in the possession of malware. This concept is demonstrated in the system-wide monitoring (405). If the entity that received the partial real data is found to be malware (when analyzing the behavior pattern), the virtual environment including the malware is safely destroyed and the entire network is monitored for abnormal activity of the tagged real data. This prevents potential information leakage. In the mock data download tracking (407) and the mock data upload tracking (408), the mock data exchanged with the suspicious entity (415) in the virtual container is tracked. In the information on upload safety (410), the data initially recorded in the mock data collection unit (400) as a protection device is later deemed safe and is therefore ready to be recorded in the real data (412) to fulfill the upload (402) request of the suspicious entity (415). The upload relay (411) forwards such indicated safety information to the real data (412). In case a legitimate corporate entity (not malware) has received the mock data (400), the information on the extent of the mock data presence (413). Real data (412) is uploaded to exactly replace the mock data. The data recall trigger (414) is a software installation performed by legitimate entities (and malicious entities inadvertently attempting to appear legitimate) that checks for hidden signals indicating that a mixed data environment is potentially active. The data manager (401) is an intermediary interface between the data and the entity (415) that calculates the percentage of real data (412) that should be mixed with the mock data (400) (if any). In the upload (402) and download (398) streams of information, individual packets/files are marked (if necessary) for the data recall trigger (414) to consider for inversion of the data.

도 64 및 도 65는 데이터 회수 트리거(414)의 내부 동작을 도시한다. 행동 분석(403)은 잠재적인 시정 조치(419)를 결정하기 위해 의심스러운 엔티티(415)의 다운로드 및 업로드 동작을 추적한다. 실제 시스템(417)은 가상화된 환경 외부에 완전히 존재하며 모든 가능한 민감한 데이터를 포함하는 원래의 실제 데이터(412)를 포함한다. 모의 데이터(418)를 대체하는 실제 데이터는 실제 데이터가 필터링되지 않은(실제 데이터 동기화 장치(386) 전에 조차도) 데이터 회수 추적(399)에 제공되는 곳이다. 이러한 방식으로 실제 데이터 패치(416)는 모의 데이터를 이전의 의심스러운 엔티티(422)상의 실제 데이터로 대체하도록 만들어질 수 있다. 가상의 격리 환경(404)에 잠긴 데이터 관리자(401)는 데이터 회수 추적(399)으로부터 실제 데이터 패치(416)를 수신한다. 이 패치(416)에는 이전에 의심스러운 엔티티(422)(현재 무해하다고 알려짐)를 정확하고 사실이며 정확한 정보 상태로 변환하는 대체 지침이 포함되어 있다. 이러한 패치(416)는 후속하여 이전의 의심스러운 엔티티(422)로 전송되는 데이터 호출 인터페이스(427)로 전송된다. 다운로드된 데이터(420)는 모의 데이터 환경(404) 내에서 다운로드 한 데이터이다(따라서 데이터는 부분적으로 또는 완전히 가짜이다). 고정 데이터(Fixed Data)(421)는 모의 데이터가 실제 데이터 패치(416)가 적용된 후에 대응하는 실제 데이터로 대체 된 곳이다. 행동 분석(403)에서 무해한 코드(409)가 멀웨어로 지워졌을때, 정정 동작(419)이 수행된다. 그러한 동작(419)은 이전의 의심스러운 엔티티(422)의 모의 데이터를 그것이 나타내는 실제 데이터(412)로 대체하는 것이다. 비밀 토큰 (Secret Token)(424)은 LIZARD에 의해 생성되고 할당되는 보안 문자열이다. 비밀 토큰(424)는 가상 난독화 시스템에 의심스러운 엔티티(415)가 합법적이며 해가 없다는 것을 증명하지 않는다. 대신 부분적으로(391) 또는 완전히(394) 모의 데이터 환경의 영향을 받았다는 것을 알고 있기 때문에 실제로 무해한 엔티티가 자신의 일을 진행하지 못하게 한다. 엔티티가 합법적인 한, 가짜 정보에 대한 행동과 실제 생활 문제(잘못된 주소 발송, 잘못된 직원 해고 등)에 대한 직원/ 소프트웨어 등의 물류상의 문제가 없어야 한다. 데이터 회수 트리거(414)는 합법적인 기업 기능 및 엔티티에만 존재한다. 기본적으로 합법적인 엔티티는 임베디드 서버 환경(404)에서 토큰(424) 존재에 대해 합의된 위치를 확인한다. 토큰이 누락(429 및 425)된 경우, 이는 합법적인 엔티티가 부분적으로 모의 데이터 환경(악성 프로그램이라는 위험 평가 때문에)에 놓여 졌을 가능성이 있음을 나타낸다. 그 후, 지연 인터페이스(426)를 갖는 지연 세션(428)이 활성화된다. 토큰이 발견(426과 424)되면, 서버 환경이 실제이므로 지연된 세션이 비활성화됨을 나타낸다(427). 지연 인터페이스(426)는 엔티티에 직접 사전 설치된 모듈이다. 모의 환경(404)에있는 것으로 표시되면, 지연된 세션이 활성화 될 것이다. 지연된 세션은 엔티티의 프로세스가 인위적으로 느려서 행동 분석(403) 시간을 부여하여 이 엔티티가 무해하거나 악의적인지 여부를 결정한다는 것을 의미한다. 실질적으로 그러한 지연은 동작 당 몇 초가 걸릴 것으로 예상된다. 실제로 악성 코드가 100 % 실제 데이터 시스템에 은밀하게 내장되어 있기 때문에 실제 멀웨어가 비밀 토큰의 사본(자체적으로 변경 및 재생성 할 수 있음)을 얻는 것은 극히 어렵다. 비밀 토큰이 발견되지 않는 경우에, 지연된 인터페이스(426)는 참여하고, 행위 분석(403)에 의해 실제 데이터 액세스가 재 부여 될 때까지 환자(patient)가 행동하는 것을 의미한다.Figures 64 and 65 illustrate the internal workings of the data recovery trigger (414). The behavioral analysis (403) tracks the download and upload behavior of the suspicious entity (415) to determine potential corrective actions (419). The real system (417) exists entirely outside the virtualized environment and contains the original real data (412) containing all possible sensitive data. The real data replacing the mock data (418) is provided to the data recovery tracking (399) where the real data is unfiltered (even before the real data synchronization device (386)). In this way, the real data patch (416) can be created to replace the mock data with the real data on the previous suspicious entity (422). The data manager (401), locked in the virtual isolation environment (404), receives the real data patch (416) from the data recovery tracking (399). This patch (416) contains replacement instructions that transform the previously suspicious entity (422) (now known to be harmless) into a correct, true, and accurate information state. This patch (416) is subsequently transmitted to the data call interface (427) which is then transmitted to the previously suspicious entity (422). The downloaded data (420) is the data downloaded within the simulated data environment (404) (and thus the data is partially or completely fake). The fixed data (421) is where the simulated data is replaced with the corresponding real data after the real data patch (416) is applied. When the harmless code (409) is erased by malware in the behavioral analysis (403), a corrective action (419) is performed. Such an action (419) is to replace the simulated data of the previously suspicious entity (422) with the real data (412) it represents. The Secret Token (424) is a secure string generated and assigned by LIZARD. The Secret Token (424) does not prove to the virtual obfuscation system that the suspect entity (415) is legitimate and harmless. Instead, it prevents the actually harmless entity from doing its job because it knows that it has been partially (391) or fully (394) affected by the mock data environment. As long as the entity is legitimate, there should be no logistical issues with personnel/software etc. acting on fake information and real-life issues (wrong address sent, wrong employee fired, etc.). The Data Retrieval Trigger (414) exists only for legitimate corporate functions and entities. Basically, the legitimate entity checks the agreed upon location in the embedded server environment (404) for the presence of the Token (424). If the Token is missing (429 and 425), this indicates that the legitimate entity has likely been placed in a partially mock data environment (due to a risk assessment of being a malicious program). After that, a delayed session (428) with a delayed interface (426) is activated. If the token is found (426 and 424), it indicates that the server environment is real and therefore the delayed session is deactivated (427). The delayed interface (426) is a module pre-installed directly on the entity. If it is shown to be in the mock environment (404), the delayed session will be activated. The delayed session means that the entity's processes are artificially slowed down to give the behavioral analysis (403) time to determine whether the entity is benign or malicious. In practice, such a delay is expected to take several seconds per operation. In practice, it is extremely difficult for real malware to obtain a copy of the secret token (which it can change and regenerate on its own) since the malware is 100% embedded covertly in the real data system. In the event that the secret token is not found, the delayed interface (426) is engaged and the patient acts until the real data access is re-granted by the behavioral analysis (403).

도 66은 매우 민감한 데이터(고감도 데이터)를 필터링 하고 실제 데이터를 모의 데이터와 혼합하는 데이터 선택을 보여준다. 실제 데이터(412)는 고감도 데이터(431)를 필터링하는 실제 데이터 동기화 장치(386)에 제공된다. 필터 범위는 정적 코어(315)에 정의된 시스템 정책(430)에 따라 변한다. 이 모듈 (431)은 의심스러운 엔티티(415)가 존재하는 동일한 가상 환경에 민감한 정보가 도달하지 못하도록 한다. 데이터는 가상 환경(40)의 생성(434)시에 한번 필터링 된다. 생성 기준(433)을 통해, 필터링된 실제 데이터는 모의 데이터의 종류 및 양에 대한 기준으로서 사용된다. 모의 데이터 생성기(387)는 실제 데이터와 구별 할 수 없도록 설계된 가짜 데이터를 생성한다. 즉, SSN 배치. 호환성 시행(432)을 사용하면 생성된 모의 데이터가 실제 데이터와 호환되도록 검증되어 중복이 너무 많지 않고 데이터 유형이 누락되지 않도록 할 수 있다. 실제 데이터와 가짜 데이터를 수집하는 것은 의심의 여지없이 원활하게 병합된다. 즉 가짜 SSN과 실제 SSN은 겹치지 않는다(중복을 피하라). 가상 환경 생성기(434)는 모의 데이터의 비율, 이용 가능한 시스템 기능, 네트워크 통신 옵션, 저장 옵션 등과 같은 변수를 포함하는 가상 환경(404)의 빌딩을 관리한다. 데이터 기준(435)은 실제 데이터 대 가짜 데이터의 비율을 조정하기 위한 변수이다. 병합된 데이터(438)와 함께, 데이터는 데이터 기준(435)에 따라 병합된다. 병합 프로세스 중에 덜 민감한 것으로 표시된 실제 데이터가 더 민감한 느낌을 주는 모의 데이터와 병합된다. 비율 관리(437)은 원하는 모의 데이터 비율을 따르는 것처럼 병합중인 실제 및 모의 데이터의 양을 지속적으로 조정한다. 데이터는 의심스러운 엔티티(415)의 데이터 요청(440)에 따라 실시간으로 병합된다. 데이터는 요청 된 데이터(439)에 적절한 모의 데이터 비율로 리턴된다.Fig. 66 shows data selection for filtering highly sensitive data (high sensitivity data) and mixing real data with mock data. Real data (412) is provided to a real data synchronization device (386) that filters high sensitivity data (431). The filter range varies according to the system policy (430) defined in the static core (315). This module (431) prevents sensitive information from reaching the same virtual environment where the suspicious entity (415) exists. The data is filtered once during the creation (434) of the virtual environment (40). Through the creation criteria (433), the filtered real data is used as a criterion for the type and amount of mock data. The mock data generator (387) generates fake data that is designed to be indistinguishable from real data. That is, SSN batch. Using the compatibility enforcement (432), the generated mock data can be verified to be compatible with the real data so that there is not too much duplication and no data type is missed. Collecting real data and fake data is merged seamlessly without any doubt. That is, the fake SSN and the real SSN do not overlap (avoid duplication). The virtual environment generator (434) manages the building of the virtual environment (404) including variables such as the ratio of the simulated data, the available system functions, the network communication options, the storage options, etc. The data criterion (435) is a variable for adjusting the ratio of real data to the fake data. Along with the merged data (438), the data is merged according to the data criterion (435). During the merging process, the real data which is marked as less sensitive is merged with the simulated data which is perceived as more sensitive. The ratio management (437) continuously adjusts the amount of real and simulated data being merged as follows to follow the desired simulated data ratio. The data is merged in real time according to the data request (440) of the suspicious entity (415). The data is returned with an appropriate simulated data ratio for the requested data (439).

도 67 및 도 68은 행동 분석(403)의 내부 작동을 보여준다. 목적 맵(441)은 전체 기업 시스템에 목적을 부여하는 시스템 목표의 계층 구조이다. 이러한 목적은 소규모 네트워크, CPU 처리 및 저장 이벤트의 세분성까지도 할당된다. 선언된, 활동 및 코드베이스 목적은 의심되는 엔티티(415)가 주장하는 바가 무엇이든 선천적인 시스템 요구와 비교된다. 활동 모니터링(453)을 사용하면 의심스러운 엔티티의 저장소, CPU 처리 및 네트워크 활동이 모니터링된다. 구문 모듈 (Syntax Module)(35)은 그러한 기능(443)을 원하는 기능으로 해석한다. 그러한 기능들은 목적 모듈(36)에 의해 행동에서 의도된 목적으로 번역된다. 예를 들어, 코드 베이스 목적(446)은 연간 수익 보고서를 제출하는 것이지만, 활동 목적(447)은 "최고 유급 직원의 모든 SSN을 모으는 것"일 수 있다. 이 방법론은 특정 품목을 세관에 신고해야 하는 공항의 관세 부서와 유사하지만 세관에서는 가방을 검색한다. 코드베이스(442)는 의심스러운 엔티티(415)의 소스 코드/ 프로그래밍 구조이다. 컴파일된 폐쇄 소스 프로그램이므로 소스 코드를 공개하지 않는 엔티티는 시스템 정책(430)에 의해 시스템에 액세스하지 못하도록 차단 될 수 있다. 이러한 코드베이스(442)는 행동 분석(403)의 서브 세트로서 구문 모듈 (35)에 전송된다. 구문 모듈(35)은 코딩 구문을 이해하고, 프로그래밍 코드 및 코드 활동을 상호 연결된 함수의 맵(444)으로 감소시킬 수 있다. 이러한 기능(444)은 코드베이스(442) 및 활동(443)의 기능을 나타내고, 의심스러운 엔티티(415)의 인식된 '의도'를 생성하는 목적 모듈(36)로 전달된다. 목적 모듈(36)은 코드베이스 목적(446) 및 활동 목적(477)을 생성한다. 코드베이스 목적(446)은 LIZARD의 구문 프로그래밍 기능에서 파생된 엔티티(415)의 알려진 목적, 기능, 관할권 및 권한을 포함한다. 활동 목적(447)은 LIZARD의 저장, 처리 및 네트워크 활동(453)에 대한 LIZARD의 이해로 이해되는 엔티티(415)의 알려진 목적, 기능, 관할권 및 권한을 포함한다. 선언된 목적은 엔티티 자체에서 선언 한 엔티티(415)의 가정, 기능, 관할권 및 권한이다. 필요한 목적(445)은 기업 시스템이 요구하는 예상된 목적, 기능, 관할권 및 권한을 포함한다. 이는 회사의 필요를 충족시키기 위해 직원을 고용하는 것과 유사하다. 이로써 LIZARD는 의심스러운 엔티티(415)를 차단할 수 있다. 시스템에서 능력 및/또는 서비스가 절대적으로 필요하지는 않다. 4 개의 모든 목적(445 내지 448)은 비교 모듈 (449)에서 비교되어 엔티티(415)의 존재가 보장되고, 기업 시스템 내의 동작이 LIZARD가 시스템의 목표(336)에 대해 생산적으로 평가하고 이해한다. 4 가지 목적(445 내지 448) 사이의 불일치는 정정 동작(419)으로 이어지는 목적(450)의 시나리오의 차이를 유발한다. 정정 동작는 잠재적으로 의심스러운 엔티티(415)를 멀웨어(385) 또는 무해(409)로 표시 할 수 있다. 계속되는 조치는 가상 컨테이너를 안전하게 파기하거나 실제 데이터(모의 데이터 전용) 및 실제 기업 네트워크 액세스에 대한 액세스가 전혀 없는 새로운 가상 환경으로 멀웨어(385)를 신중하게 이동하는 것이다.Figures 67 and 68 illustrate the internal workings of the behavioral analysis (403). The purpose map (441) is a hierarchy of system goals that assigns a purpose to the entire enterprise system. These goals are assigned down to the granularity of small network, CPU processing, and storage events. The declared, activity, and codebase goals are compared to the inherent system needs of whatever the suspect entity (415) claims. Using the activity monitoring (453), the storage, CPU processing, and network activities of the suspect entity are monitored. The syntax module (35) translates such functions (443) into desired functions. Such functions are translated into the intended purpose of the behavior by the purpose module (36). For example, the codebase goal (446) may be to file an annual earnings report, while the activity goal (447) may be to "collect all SSNs of the highest paid employees." This methodology is similar to the customs office at the airport where certain items must be declared to customs, but customs searches the bags. The codebase (442) is the source code/programming structure of the suspect entity (415). Since it is a compiled closed source program, entities that do not disclose their source code may be blocked from accessing the system by the system policy (430). This codebase (442) is sent to the syntax module (35) as a subset of the behavioral analysis (403). The syntax module (35) understands the coding syntax and can reduce the programming code and code activities into a map (444) of interconnected functions. These functions (444) represent the functions of the codebase (442) and the activities (443) and are passed to the purpose module (36) which generates a perceived 'intent' of the suspect entity (415). The purpose module (36) generates a codebase purpose (446) and an activity purpose (477). The codebase purpose (446) includes the known purposes, functions, jurisdictions and authorities of the entity (415) derived from the syntactic programming functions of LIZARD. The activity purpose (447) includes the known purpose, function, jurisdiction and authority of the entity (415) as understood by LIZARD in terms of LIZARD's understanding of the storage, processing and network activities (453) of LIZARD. The declared purpose is the assumption, function, jurisdiction and authority of the entity (415) declared by the entity itself. The required purpose (445) includes the expected purpose, function, jurisdiction and authority that the enterprise system requires. This is similar to hiring employees to fulfill the needs of the company. This allows LIZARD to block suspicious entities (415). The capabilities and/or services are not absolutely necessary for the system. All four purposes (445 through 448) are compared in the comparison module (449) to ensure that the existence of the entity (415) and its behavior within the enterprise system are productively evaluated and understood by LIZARD against the system's goals (336). A mismatch between the four objectives (445 to 448) leads to a difference in the scenario of the objective (450) leading to a corrective action (419). The corrective action can be to flag the potentially suspicious entity (415) as malware (385) or harmless (409). The subsequent action is to either safely destroy the virtual container or carefully move the malware (385) to a new virtual environment with no access to real data (simulated data only) and no access to the real corporate network.

비판적 사고 메모리 및 인식(CTMP)Critical Thinking Memory and Cognition (CTMP)

도 69는 CTMP(22)의 주요 로직을 보여준다. CTMP의 주요 목표는 제 3자가 내린 결정을 비판하는 것이다. CTMP(22)는 여러 소스(예: I2GE, LIZARD, 신뢰할 수 있는 플랫폼 등)의 인텔리전스를 상호 참조하고 인식과 현실에 대한 기대치를 학습한다. CTMP는 사안에 대한 객관적인 결정을 내릴 수 있는 자신의 능력이라고 평가하고 내부 신뢰도가 낮은 결정을 내리는 것을 삼가한다. 전 세계적으로 배포 된 에이전트의 군대 및 신뢰 플랫폼의 정보와 같이 들어오는 데이터 스트림은 모두 실행 가능한 데이터로 변환된다. 주관적 의견 결정(454)은 선택된 패턴 매칭 알고리즘(SPMA)(526)으로 알려진 입력 알고리즘에 의해 제공된 원래의 주관적 결정을 나타낸다. SPMA는 통상적으로 보안 관련 보호 시스템이지만, 어휘 객관성 마이닝(LOM)(추론 알고리즘) 및 영구 기부 방법(MPG) (세금 해석 알고리즘)에 대한 방법과 같은 다른 유형의 시스템을 제한하지 않는다. 입력 시스템 메타 데이터(455)는 SPMA(526)로부터의 원시 메타 데이터를 나타내며, 이는 알고리즘의 기계적 프로세스 및 그것이 어떻게 결정에 도달했는지를 기술한다. 이유 처리(456)는 특성의 속성을 비교함으로써 주장한 것을 논리적으로 이해할 것이다. 이유 처리의 하위 집합인 규칙 처리(457)에서 파생된 결과 규칙이 현재 문제의 범위를 결정하기 위한 참조 포인트로 사용된다. 비판적인 규칙 범위 확장자(Critical Rule Scope Extender, CRSE)(458)는 알려진 인식 범위를 취하여 인식의 비판적 사고 범위를 포함하도록 업그레이드한다. 정정 규칙(459)은 인식의 비판적 사고 범위를 사용하여 도출된 정정 규칙을 나타낸다. 메모리 웹(460)에서 시장 변수(시장 성과 (30) 및 이익 이력 (31)) 로그는 충족 가능한 규칙을 검색한다. 모든 적용 가능하고 이행 가능한 규칙이 실행되어 투자 할당 중단 결정처리하기 위해 실행된다. 규칙 실행(RE)(461)에서, 혼돈 영역(613)의 메모리 스캔에 따라 현재대로 확인되고 충족된 규칙들이 실행되어 원하는 비판적 사고 결정을 생성한다. 이러한 규칙의 실행은 필연적으로 모호하지 않은 결과로 이어진다. 혼돈스럽게 복잡한 프로세스가 일관되지 않지만 생산적인 결과를 초래할 수 있는 반면, 논리적으로 복잡한 RE(461) 프로세스는 항상 규칙 집합에 따라 동일한 추론된 결과를 가져온다. 비판적 결정 출력(462)에서, 인식 관찰자 에뮬레이터(POE)(475)와 규칙 실행(RE) (461)에 의해 도달된 결론을 비교함으로써 CTMP의 전체 출력을 결정하는 최종 논리. 비판적 결정(463)은 가능한 한 객관적으로 하려고 하는 사안에 대한 의견 인 최종 결과이다.   로그 (Logs) (464)는 입력 알고리즘 (MPG)의 주관적인 견해에 영향을 미치지 않거나 편향없이 독립적으로 중요한 결정을 내리는 데 사용되는 원시 정보이다. 원시 인식 생산(RP2)(465)은 SPMA(526)에서 메타 데이터 로그를 수신하는 모듈이다. 이러한 로그는 파싱되고 이러한 알고리즘의 인식을 나타내는 인식이 형성된다. 인식은 인식 복합 형식(PCF)에 저장되며, 인식 관찰자 에뮬레이터(POE)(475)에 의해 에뮬레이션된다. 인식의 적용 관점 (466)은 이미 SPMA (526)에 의해 적용되고 이용된 인식의 관점를 나타낸다. 자동 인식 발견 메커니즘(467)은 인식의 범위를 확대할 수 있도록 혼성 인식(인식의 적용 관점(466)에서 제공한 입력에 따라 형성됨)을 생성하는 창조성 모듈(18)을 활용하는 모듈을 나타낸다. 468은 컴퓨터 시스템이 사용할 수 있는 전체 인식 범위를 나타낸다. 비판적 사고(469)는 규칙 기반 사고의 외부 쉘 관할 구역을 나타낸다. SPAM(526)에 따라 잘 설정된 규칙뿐만 아니라 CTMP 내에서 파생된 새로운 정정 규칙(459)이 표시되는 규칙 실행(RE)(461)이 발생한다.Fig. 69 shows the main logic of CTMP (22). The main goal of CTMP is to criticize decisions made by third parties. CTMP (22) cross-references intelligence from multiple sources (e.g., I2 GE, LIZARD, trusted platforms, etc.) and learns perception and expectations about reality. CTMP evaluates its own ability to make objective decisions on issues and refrains from making decisions with low internal confidence. Incoming data streams, such as information from a globally distributed army of agents and trusted platforms, are all converted into actionable data. Subjective opinion decision (454) represents the original subjective decision provided by the input algorithm known as Selected Pattern Matching Algorithm (SPMA) (526). SPMA is typically a security-related protection system, but does not limit other types of systems, such as methods for lexical objectivity mining (LOM) (an inference algorithm) and permanent endowment method (MPG) (a tax interpretation algorithm). The input system metadata (455) represents the raw metadata from the SPMA (526), which describes the mechanical process of the algorithm and how it arrived at the decision. The reason processing (456) will logically understand what has been argued by comparing the attributes of the features. The resulting rules derived from the rule processing (457), which is a subset of the reason processing, are used as reference points to determine the scope of the current problem. The Critical Rule Scope Extender (CRSE) (458) takes the known scope of the perception and upgrades it to include the critical thinking scope of the perception. The correction rules (459) represent the correction rules derived using the critical thinking scope of the perception. The log of market variables (market performance (30) and profit history (31)) in the memory web (460) searches for satisfiable rules. All applicable and enforceable rules are executed to process the decision to stop the investment allocation. In Rule Execution (RE) (461), the currently verified and satisfied rules are executed based on the memory scan of the chaos region (613) to produce the desired critical thinking decision. The execution of these rules inevitably leads to unambiguous results. While a chaotically complex process may lead to inconsistent but productive results, a logically complex RE (461) process always leads to the same inferred results based on the set of rules. In Critical Decision Output (462), the final logic that determines the overall output of the CTMP by comparing the conclusions reached by the Perceptual Observer Emulator (POE) (475) and the Rule Execution (RE) (461). The Critical Decision (463) is the final result, which is an opinion on the matter that is attempted to be as objective as possible. The Logs (464) are the raw information used to make critical decisions independently without affecting or biasing the subjective views of the input algorithm (MPG). The Raw Perception Production (RP2) (465) is a module that receives the metadata logs from the SPMA (526). These logs are parsed and perceptions representing the perception of these algorithms are formed. The perceptions are stored in a perception composite format (PCF) and are emulated by a perception observer emulator (POE) (475). The perception application perspective (466) represents a perception perspective that has already been applied and utilized by the SPMA (526). The automatic perception discovery mechanism (467) represents a module that utilizes the creativity module (18) to generate a hybrid perception (formed based on the input provided by the perception application perspective (466)) to expand the scope of the perception. 468 represents the entire scope of perception that the computer system can utilize. Critical thinking (469) represents the outer shell jurisdiction of rule-based thinking. Rule execution (RE) (461) occurs where well-established rules according to SPAM (526) as well as new correction rules (459) derived within the CTMP are displayed.

도 70의 자기 비판적 지식 밀도(474)를 참조하면, 유입 원시 로그는 SPMA (526)에 의해 알려진 기술적 지식을 나타낸다. 이 모듈(474)은 보고 가능한 로그의 도달 범위를 벗어나는 잠재적인 알려지지 않은 지식의 범위 및 유형을 추정한다. 이 방법으로 CTMP의 비판적 사고 기능은 시스템에 의해 직접 알려지고 알려지지 않은 모든 관련 지식의 잠재적 범위를 활용할 수 있다. 인식 관찰자 에뮬레이터(POE)(475)는 관찰자의 에뮬레이션을 생성하고 관찰자 에뮬레이션의 그러한 변화들과 함께 인식의 모든 잠재적인 점들을 테스트/ 비교한다. 입력은 향상된 데이터 로그 이외에 잠재적인 인식 포인트들이다. 결과는 그러한 선택된 로그가 혼합된 최상의, 가장 관련성이 높으며 가장 신중한 관찰자에 따라 향상된 로그에 의해 생성되는 최종 보안 결정이다. 함축적 파생(477)을 참조하면, 이 모듈은 현재 적용된 인식의 관점(470)으로부터 연루 될 수 있는 인식 데이터의 관점을 도출한다. 중단 정정 동작(476)을 참조하면, 최종 정정 동작/ 주장 비평은 인식 관찰자 에뮬레이터(475)에 의해 생성된다.Referring to the self-critical knowledge density (474) of Fig. 70, the incoming raw log represents the technical knowledge known by the SPMA (526). This module (474) estimates the scope and type of potential unknown knowledge that is beyond the reach of the reportable log. In this way, the critical thinking function of the CTMP can utilize the potential scope of all relevant knowledge known and unknown directly by the system. The Perception Observer Emulator (POE) (475) generates an emulation of the observer and tests/compares all potential points of perception with such changes in the observer emulation. The input is the potential perception points in addition to the enhanced data log. The result is the final security decision generated by the enhanced log according to the best, most relevant and most careful observer of such selected logs. Referring to the implicit derivation (477), this module derives the perspective of the perception data that may be involved from the currently applied perspective of perception (470). Referring to the interrupt correction operation (476), the final correction operation/assertion critique is generated by the cognitive observer emulator (475).

도 71은 CTMP의 의존 구조를 나타낸다. 자원 관리 및 할당(RMA)(479)을 참조하면, 조정 가능한 정책은 관찰자 에뮬레이션을 수행하기 위해 레버리지되는 인식들의 양에 영향을 준다. 선택된 인식의 우선 순위는 가중치에 따라 내림차순으로 선택된다. 그런 다음 정책은 백분율, 고정 수 또는 보다 복잡한 선택 알고리즘보다 차단을 선택하는 방식을 지시할 수 있다. 저장 검색(SS)(480)을 참조하면 데이터 향상 로그에서 파생된 CVF가 인식 저장(PS; Perception Storage)(478)의 데이터베이스 조회에서 기준으로 사용된다. 메트릭 처리(MP)(489)은 선택된 패턴 매칭 알고리즘(SPMA)(526) 투자 할당으로부터의 변수를 그러한 알고리즘의 지능으로부터의 '구원' 인식으로 리버스 엔지니어링 한다. 인식 추론(Perception Deduction, PD)(490)은 투자배분 응답의 일부와 해당 시스템 메타데이터를 사용하여 투자배분 응답에 대한 원래의 인식을 재현한다. 비판적 결정 출력(CDO)(462)은 CTMP 출력을 결정하기 위한 최종 논리를 지시한다. 메타데이터 분류 모듈(MCM)(488)을 참조하면, 디버깅 및 알고리즘 추적은 기존의 구문 기반의 정보 분류를 사용하여 별개의 카테고리로 구분한다. 그런 카테고리는 시장/ 세금 위험 및 기회와의 상관 관계를 통해 명확한 투자 배분 응답을 구성하고 생산하는 데 사용될 수 있다. 시스템 메타 데이터 분리(SMS)(487)를 참조하면, 입력 시스템 메타 데이터(455)는 의미 있는 투자 배정 인과 관계로 분리된다. 포퓰레이터 논리(483)를 참조하면, 관련 시장/ 세금 위험, 기회 및 각각의 대응으로 모든 투자 배분을 포괄적으로 조정한다. 주제 탐색기(481)는 모든 적용 가능한 주제를 스크롤한다. 주제 포퓰레이터(482)는 피험자와 관련된 적절한 투자 위험 및 할당을 검색한다. 인식 저장(PS)(478) 인식은 관련 가중치 외에도 비교 가능한 가변 형식(CVF)을 인덱스로 사용하여 저장된다. 이는 데이터베이스가 입력 쿼리 조회로 CVF를 수신하도록 최적화되어 있고 그 결과가 여러 가지 인식이 될 것임을 의미한다.Figure 71 illustrates the dependency structure of the CTMP. Referring to Resource Management and Allocation (RMA) (479), an adjustable policy influences the amount of perceptions leveraged to perform observer emulation. The priority of the selected perceptions is selected in descending order based on weights. The policy can then dictate how to select blocking over percentages, fixed numbers, or more complex selection algorithms. Referring to Storage Lookup (SS) (480), the CVF derived from the data enhancement log is used as a reference in a database lookup of the Perception Storage (PS) (478). Metric Processing (MP) (489) reverse engineers the variables from the selected Pattern Matching Algorithm (SPMA) (526) investment allocation into 'rescue' perceptions from the intelligence of such algorithms. Perception Deduction (PD) (490) reconstructs the original perception for the investment allocation response using a portion of the investment allocation response and corresponding system metadata. The Critical Decision Output (CDO) (462) directs the final logic for determining the CTMP output. Referring to the Metadata Classification Module (MCM) (488), debugging and algorithm tracing are separated into distinct categories using existing syntax-based information classification. Such categories can be used to construct and produce clear investment allocation responses through correlations with market/tax risks and opportunities. Referring to the System Metadata Separation (SMS) (487), the input system metadata (455) is separated into meaningful investment allocation causal relationships. Referring to the Populator Logic (483), all investment allocations are comprehensively adjusted for relevant market/tax risks, opportunities and their respective responses. The Topic Explorer (481) scrolls through all applicable topics. The Topic Populator (482) retrieves the appropriate investment risks and allocations associated with the subject. The Perception Store (PS) (478) Perceptions are stored using a comparable variable format (CVF) as an index in addition to the associated weights. This means that the database is optimized to receive CVFs as input query lookups and the results will be multi-recognizable.

도 72를 참조하면, 함축적 파생(ID)(477)은 인식의 현재 알려진 관점로부터 연루 될 수 있는 데이터의 인식 관점을 도출한다. 자기 비판적 지식 밀도(SCKD; Self-Critical Knowledge Density)(492)를 참조하면, 유입되는 원시 로그는 알려진 지식을 나타낸다. 이 모듈은 보고 할 로그의 범위를 벗어나는 잠재적인 알려지지 않은 지식의 범위와 유형을 추정한다. 이 방법으로 CTMP의 비판적 사고 기능은 시스템에 의해 직접 알려지고 알려지지 않은 모든 관련 지식의 잠재적 범위를 활용할 수 있다. 메트릭 결합(493)에서, 인식은 메트릭의 카테고리로 분리된다. 메트릭 전환(494)에서, 개별 메트릭은 전체적인 인식 관점으로 역전된다. 메트릭 확장(ME)(495)에서, 다양한 인식 관점의 측정 기준은 개별 데이터베이스에 카테고리 별로 저장된다. 상한은 각 개별 메트릭 데이터베이스(DB)의 최고 지식으로 표시된다. 향상과 복잡성이 높아지면 메트릭은 인식의 관점으로 변환되어 비판적 사고를 위해 활용된다. 비교 가능한 가변 형식 생성기(CVFG; Comparable Variable Format Generator)(491)를 사용하면 정보 스트림이 비교 가능한 가변 형식(CVF)으로 변환된다.Referring to Fig. 72, the implicit derivation (ID) (477) derives the perception perspective of data that can be involved from the currently known perspective of perception. Referring to the Self-Critical Knowledge Density (SCKD) (492), the incoming raw log represents known knowledge. This module estimates the scope and type of potential unknown knowledge that is beyond the scope of the log to be reported. In this way, the critical thinking function of CTMP can utilize the potential scope of all relevant knowledge that is directly known and unknown by the system. In the metric combination (493), the perception is separated into categories of metrics. In the metric conversion (494), the individual metrics are inverted into the overall perception perspective. In the metric expansion (ME) (495), the measurement criteria of various perception perspectives are stored in individual databases by category. The upper bound is represented as the best knowledge of each individual metric database (DB). As the enhancement and complexity increase, the metrics are converted into perception perspectives and utilized for critical thinking. The information stream is converted into a comparable variable format (CVF) using a Comparable Variable Format Generator (CVFG) (491).

도 73은 CTMP의 의존 구조를 도시한다. 비판적 규칙 범위 확장자(CRSE)(458)에서는 알려진 인식을 활용하여 규칙 세트들의 비판적 사고 범위를 확장한다. 인식 매칭(Perception Matching)(503)에서, 규칙 구문 파생(CVF; Rule Variable Derivation)(504)으로부터 수신된 인식으로부터 비교 가능한 가변 형식(CVF)이 형성된다. 새로 형성된 CVF는 유사한 인덱스를 갖는 인식 저장(PS; Perception Storage)(479)에서 관련 인식을 검색하는데 사용된다. 잠재적 매칭은 규칙 구문 생성(RSG; Rule Syntax Generation)(505)으로 반송된다. 메모리 인식(MR; Memory Recognition)(501)에서, 혼돈의 영역(613)은 입력 데이터로부터 형성된다. 필드 스캐닝은 알려진 개념을 인식하기 위해 수행된다. 메모리 개념 인덱싱(Memory Concept Indexing)(500)에서 전체 개념은 인덱스로 알려진 개별 부분으로 개별적으로 최적화된다. 이들 인덱스는 문자 스캐너에 의해 혼돈의 영역(613)과 상호 작용하는데 사용된다. 규칙 실행 파서(RFP)(498)는 인식 태그로 규칙의 개별 부분을 수신한다. 각 부분은 메모리 인식(501)에 의해 혼란 필드 (613)에서 발견되거나 발견되지 않은 것으로 표시된다. 그런 다음 RFP는 모든 부분의 조합인 모든 전체 규칙이 규칙 실행(RE)(461)의 이점을 위해 혼돈의 영역(613)에서 충분히 인식되었는지 논리적으로 추론할 수 있다. 규칙 구문 형식 분리(RSFS; Rule Syntax Format Separation)(499)에서 정정 규칙은 유형별로 구분되고 정리된다. 따라서 모든 동작, 속성, 조건 및 객체는 별도로 스택된다. 이것은 시스템으로 하여금 혼돈의 영역(613)에서 발견된 부분과 그렇지 않은 부분을 식별하게 한다. 규칙 구문 파생(504)에서 논리적 '흑백'규칙은 메트릭 기반 인식으로 변환된다. 여러 규칙의 복잡한 배열은 다양한 그라디언트의 여러 메트릭을 통해 표현되는 단일의 균일한 인식으로 변환된다. 규칙 구문 생성기(RSG; Rule Syntax Generation)(505)는 인식 형식(perception format)에 저장된 이전에 확인 된 인식을 수신하여 인식의 내부 메트릭 구성과 연관시킨다. 이러한 그라디언트 기반 메트릭 측정 값은 원래 인식의 입/ 출력 정보 흐름을 에뮬레이션하는 이진 및 논리 규칙 집합으로 변환된다. 규칙 구문 형식 분리(RSFS)(499) 정정 규칙은 관찰되는 객체의 현실에 맞는 정확한 규칙 집합을 나타낸다. 정정 규칙은 유형별로 구분되고 정리된다. 따라서 모든 동작, 속성, 조건 및 객체는 별도로 스택된다. 이것은 시스템으로 하여금 혼돈의 영역(613)에서 발견된 부분과 그렇지 않은 부분을 식별하게 한다. 타고난 논리적 추론(506)은 논리적인 원칙을 사용하므로, 어떤 종류의 규칙이 인식 내의 많은 메트릭의 그라디언트를 정확하게 나타낼 것인지 추론하기 위해 오류를 방지한다. 예를 들어, 아날로그 사인파(라디오 주파수 등)를 디지털 단계로 변환하는 것과 같다. 전반적인 추세, 위치 및 결과는 동일하다. 그러나 아날로그 신호는 디지털로 변환되었다. 메트릭 맥락 분석(507)은 메트릭의 인식 내에서 상호 연결된 관계를 분석한다. 특정 메트릭은 다른 정도에 따라 달라질 수 있다. 이 문맥화는 '디지털'규칙 집합 형식 내에서 규칙이 갖는 미러된 상호 연결된 관계를 보완하는 데 사용된다. 입력/ 출력 분석(508)은 각각의 인식(회색) 또는 규칙(흑백)의 입력 및 출력의 차분 분석을 수행한다. 이 모듈의 목표는 변환 후 입력 및 출력이 가능한 한 유사하거나 동일하게 유지되도록 하는 것이다(회색에서 검정/ 흰색으로 또는 그 반대로). 기준 계산(509), 입력 규칙의 기준과 작업을 계산한다. 이것은 규칙 집합 이면의 '동기 부여'로 번역 될 수 있다. 규칙은 묵시적으로 또는 명시적 정의로 이해할 수 있는 이유로 구현된다. 따라서 '디지털'규칙이 구현된 이유에 대한 묵시적인 이유를 계산하면 같은 이유로 동일한 입력/ 출력 기능을 추구하는 인식 내에서 메트릭 구성을 정당화 할 수 있다. 규칙 형성 분석(Rule Formation Analysis)(510)은 규칙의 전체 구성/ 구성 및 이들이 서로 어떻게 상호 작용 하는지를 분석한다. 메트릭이 '아날로그'인식 내에서 갖는 미러된 상호 연결 관계를 보완하는 데 사용된다. 규칙 구문 형식 전환(RSFC)(511)에서 규칙은 규칙 구문 형식(RSF)(538)의 구문을 준수하도록 분류되고 분리된다.Figure 73 illustrates the dependency structure of the CTMP. The Critical Rule Scope Extender (CRSE) (458) extends the critical thinking scope of the rule sets by leveraging known perceptions. In Perception Matching (503), a comparable variable format (CVF) is formed from the perceptions received from Rule Variable Derivation (CVF) (504). The newly formed CVF is used to retrieve related perceptions in the Perception Storage (PS) (479) having similar indices. Potential matches are returned to Rule Syntax Generation (RSG) (505). In Memory Recognition (MR) (501), a region of confusion (613) is formed from the input data. Field scanning is performed to recognize known concepts. In Memory Concept Indexing (500), the entire concept is individually optimized into individual parts known as indices. These indices are used by the character scanner to interact with the chaos field (613). The rule execution parser (RFP) (498) receives individual parts of the rule as recognition tags. Each part is marked as found or not found in the chaos field (613) by the memory recognition (501). The RFP can then logically infer whether all the entire rule, which is a combination of all the parts, has been sufficiently recognized in the chaos field (613) for the benefit of the rule execution (RE) (461). In the Rule Syntax Format Separation (RSFS) (499), the correction rules are separated and organized by type. Thus, all actions, properties, conditions and objects are stacked separately. This allows the system to identify which parts are found in the chaos field (613) and which are not. In the Rule Syntax Derivation (504), the logical 'black and white' rules are transformed into metric-based recognition. A complex array of rules is transformed into a single uniform recognition expressed through multiple metrics of different gradients. The Rule Syntax Generation (RSG) (505) receives previously verified perceptions stored in perception format and associates them with the internal metric configuration of the perception. These gradient-based metric measurements are converted into a set of binary and logical rules that emulate the input/output information flow of the original perception. The Rule Syntax Format Separation (RSFS) (499) correction rules represent a set of correct rules that fit the reality of the observed object. The correction rules are separated and organized by type. Therefore, all actions, properties, conditions, and objects are stacked separately. This allows the system to identify which parts are found in the chaotic region (613) and which are not. The innate logical reasoning (506) uses logical principles to avoid errors in inferring which types of rules will accurately represent the gradients of many metrics in the perception. For example, it is like converting an analog sine wave (radio frequency, etc.) into digital steps. The overall trend, location, and result are the same. However, the analog signal has been converted into digital. Metric context analysis (507) analyzes the interconnected relationships within the perception of the metric. A particular metric may vary to different degrees. This contextualization is used to complement the mirrored interconnected relationships that the rules have within the 'digital' rule set format. Input/Output Analysis (508) performs a differential analysis of the input and output of each perception (grey) or rule (black/white). The goal of this module is to ensure that the input and output remain as similar or identical as possible after the transformation (from grey to black/white or vice versa). Criteria Computation (509) computes the criteria and actions of the input rules. This can be translated into the 'motivation' behind the rule set. Rules are implemented for reasons that can be understood implicitly or explicitly defined. Therefore, computing the implicit reasons for why a 'digital' rule is implemented can justify the metric composition within the perception that pursues the same input/output function for the same reason. Rule Formation Analysis (510) analyzes the overall composition/configuration of the rules and how they interact with each other. Metrics are used to complement the mirrored interconnections that 'analog' recognition has. In Rule Syntax Format Conversion (RSFC) (511), rules are classified and separated to conform to the syntax of Rule Syntax Format (RSF) (538).

도 74는 CTMP에서 지능형 정보를 처리하기 위한 최종 논리를 도시한다. 최종 논리는 직관적인/ 통찰력 있는 및 사고력 있는/ 논리적인 모드(인식 관찰자 에뮬레이터(POE)(475) 및 규칙 실행 (RE)(461)) 각각으로부터 지능형 정보를 수신한다. 방향 결정 비교(DDC; Direct Decision Comparison)(512)에서는 직감과 사고의 결정을 비교하여 확증을 확인한다. 중요한 차이점은 메타 데이터가 아직 비교되지 않는다는 것이다. 왜냐하면 그들이 같은 방식으로 동의한다면 그 이유를 이해하는 것이 중복적이기 때문이다. 단자 출력 제어(TOC)(513)는 직관적 인(514)와 사고력 있는(515)의 두 모드들 사이의 CTMP 출력을 결정하기 위한 마지막 로직이다. 직관적인 의사 결정(514)은 인식을 활용하여 비판적 사고에 종사하는 CTMP의 두 가지 주요 섹션 중 하나이다. 인식 관찰자 에뮬레이터(POE)(475)를 참조하라. 사고력 있는 결정(515)는 규칙을 활용하여 비판적 사고에 관여하는 CTMP의 두 가지 주요 섹션 중 하나이다. 규칙 실행(RE)(461)을 참조하라. 인식(516)은 내부 형식(518)에서 정의된 형식 구문에 따라 직관적인 결정(158)으로부터 수신된 데이터이다. 실행된 규칙들(517)은 사고력 있는 결정(515)에서 수신한 데이터로 규칙 실행(RE)(461)에서 적용 가능한(실행 가능) 규칙 집합의 모음이다. 이러한 데이터는 내부 형식(518)에 정의된 형식 구문에 따라 전달된다. 내부 형식(518)을 사용함으로써, 메타 데이터 분류 모듈(MCM)(488)은 공지된 일관된 포맷으로 표준화되었으므로 두 입력의 구문을 인식 할 수 있다 이는 CTMP 내에서 내부적으로 사용된다.FIG. 74 illustrates the final logic for processing intelligent information in the CTMP. The final logic receives intelligent information from each of the intuitive/insightful and thinking/logical modes (the Perceptual Observer Emulator (POE) (475) and the Rule Execution (RE) (461)). The Direct Decision Comparison (DDC) (512) compares the decisions of the intuition and the thinking to confirm them. An important difference is that the metadata is not compared yet, because it would be redundant to understand why they agree in the same way. The Terminal Output Control (TOC) (513) is the final logic for determining the CTMP output between the two modes of intuitive (514) and thinking (515). The intuitive decision (514) is one of the two main sections of the CTMP that engages in critical thinking by utilizing perception. See Perceptual Observer Emulator (POE) (475). The Thinking Decision (515) is one of the two main sections of the CTMP that engages in critical thinking by utilizing rules. See Rule Execution (RE) (461). The Recognition (516) is the data received from the Intuitive Decision (158) according to the formal syntax defined in the Internal Format (518). The Executed Rules (517) are a collection of rules that are applicable (executable) in the Rule Execution (RE) (461) to the data received from the Thinking Decision (515). This data is passed according to the formal syntax defined in the Internal Format (518). By using the Internal Format (518), the Metadata Classification Module (MCM) (488) can recognize the syntax of both inputs since it has been standardized into a known, consistent format that is used internally within the CTMP.

도 75는 CTMP를 전체적으로 나타내는 단일 단자 출력으로의 직관적인/ 통찰력 있는 / 논리적인 동화의 두 가지 주요 입력을 보여준다. 중요한 결정 + 메타-메타데이터(521)은 내부 형식(518)에 정의된 구문에 따라 인식(516) 또는 실행된 규칙들(517)을 전송하는 디지털 반송파이다.Figure 75 shows two main inputs to the intuitive/insightful/logical assimilation into a single terminal output representing the CTMP as a whole. The critical decision + meta-metadata (521) is a digital carrier that carries the recognized (516) or executed rules (517) according to the syntax defined in the internal format (518).

도 76은 원래의 선택 패턴 매칭 알고리즘(SPMA)(526)에서 발생하는 지능적인 사고의 범위를 도시한다. 입력 변수(524)는 이유 및 규칙 처리를 위해 고려되는 초기 재정/ 세금 할당 변수이다. CTMP는 그들을 비판하고 인위적으로 지적인 제 2의 의견이 되려는 의도를 가지고 있다. 가변적 입력(525)은 보안 결정을 정의하는 입력 변수를 수신한다. 그러한 변수는 합리적인 시정 조치가 무엇인지 CTMP가 판단할 기준을 제공한다. 변수에 더하기, 빼기 또는 변경이 있으면; 적절한 정정이 결과적인 정정 동작에 반영되어야 한다. CTMP의 중요한 목표는 입력 변수의 변화를 적절하고 정확하게 반영하는 정정 동작의 정확하고 중대한 변경을 식별하는 것 이다. 선택 패턴 매칭 알고리즘(SPMA)(526)에서, 선택된 패턴 매칭 알고리즘은 그 자신의 기준에 따라 가장 적절한 동작을 식별하려고 시도한다. 결과 출력 형식(527)은 초기 입력 변수(168)을 사용하여 SPMA(526) 의해 생성된 결과이다. SPMA(526) 의사 결정에서 파생된 규칙은 '현재 규칙'으로 간주되지만 반드시 '정정 규칙'은 아니다. SPMA(526)에서 제공하는 로그 정보에 따라 속성 병합(528)을 사용하여 이유 처리(456)는 SPMA(526)에 따라 현재 지식 범위를 계속 진행한다.Figure 76 illustrates the scope of intelligent thinking that occurs in the original Selected Pattern Matching Algorithm (SPMA) (526). The input variables (524) are the initial financial/tax allocation variables that are considered for reason and rule processing. The CTMP is intended to critique them and act as an artificially intelligent second opinion. The variable inputs (525) receive the input variables that define the security decision. Such variables provide the criteria by which the CTMP determines what a reasonable corrective action should be. If there is an addition, subtraction, or change in the variables; the appropriate correction should be reflected in the resulting corrective action. An important goal of the CTMP is to identify the correct and significant changes in the corrective action that appropriately and accurately reflect the change in the input variables. In the Selected Pattern Matching Algorithm (SPMA) (526), the selected pattern matching algorithm attempts to identify the most appropriate action based on its own criteria. The resulting output format (527) is the result generated by the SPMA (526) using the initial input variables (168). The rule derived from the SPMA (526) decision is considered a 'current rule' but not necessarily a 'correction rule'. Reason processing (456) continues with the current knowledge scope according to the SPMA (526) using attribute merging (528) based on the log information provided by the SPMA (526).

도 77은 인식 및 규칙을 통해 CTMP로 수행된 비판적 사고에 대해 병행되는 종래의 SPMA(526)를 도시한다. 오해 동작(531), 선택된 패턴 매칭 알고리즘(SPMA)(526)은 완전히 정확한 정정 동작을 제공할 수 없었다. 이것은 SPMA(526)의 원래 프로그래밍이나 데이터에서 확인되지 않은 근본적인 가정에 기인한다. 이 예에서 3D 개체를 입력 변수로 사용하고 정정 동작을 취하면 SPMA(526)이 고려하지 않은 차원/ 벡터가 있음을 알 수 있다. 적절한 행동(532), 비판적 사고는 SPMA(526)이 검사용 벡터로 생략한 3 차원으로 간주된다. 3 차 차원은 수행된 인식 검사의 모든 여분의 관점 때문에 비판적 사고(469)에 의해 고려되었다. 정정 규칙(533)을 참조하면, 비판적인 규칙 범위 확장자(CRPS; Critical Rule Scope Extender)는 이전에 고려되지 않은 인식 관점(즉, 제 3 차원)을 이용함으로써 규칙 집합의 이해 범위를 확장시킨다. 현재 규칙들(534)을 참조하면, 현재의 정정 동작 결정의 유도된 규칙은 SPMA(526)의 이해 또는 이해의 부족(또는 정정 규칙과 비교하여)을 반영한다. 입력 규칙은 SPMA에서 제공하는 기본 이해 범위를 설명하는 SPMA(526)에서 파생되었다. 이것은 SPMA 526이 평면 재무 할당 개념에서 단지 2 차원만을 이해함으로써 설명된다.Figure 77 illustrates a conventional SPMA (526) in parallel with the critical thinking performed with CTMP via perception and rules. The misunderstanding operation (531) indicated that the selected pattern matching algorithm (SPMA) (526) could not provide a completely accurate correction operation. This is due to a fundamental assumption that was not confirmed in the original programming of the SPMA (526) or in the data. In this example, if a 3D object is used as an input variable and a correction operation is taken, it can be seen that there are dimensions/vectors that the SPMA (526) did not consider. The appropriate action (532) is that the critical thinking is considered as the 3rd dimension that the SPMA (526) omitted as a test vector. The 3rd dimension was considered by the critical thinking (469) because of all the extra perspectives in the performed recognition tests. Referring to the correction rule (533), the Critical Rule Scope Extender (CRPS) extends the scope of understanding of the rule set by exploiting previously unconsidered perception perspectives (i.e. the 3rd dimension). Referring to the current rules (534), the derived rules for the current correction action decision reflect an understanding or lack of understanding (or compared to the correction rules) of the SPMA (526). The input rules are derived from the SPMA (526), which describes the basic understanding scope provided by the SPMA. This is explained by the fact that the SPMA 526 understands only two dimensions in the flat financial allocation concept.

도 78은 중요한 통찰 및/또는 변수를 생략할 수 있는 종래의 현재 규칙들(534)과 대조하여 정정 규칙들(533)이 어떻게 생성되는지를 도시한다. 혼돈 영역 파싱(CFP)(535)에 의해, 로그의 형식은 혼돈의 영역(613)로 알려진 단일 스캔 가능한 유닛으로 결합된다. 추가 규칙들(536)은 이미 확립된 정정 규칙들(533)을 보충하기 위해 메모리 인식(MR)(501)으로부터 처리된다. 인식 규칙들(Perceptive Rules)(537)을 참조하면, 관련성이 있고 대중적이라고 여겨지는 인식이 논리적 규칙으로 변환되었다. 인식(원래의 인식 형식에서)이 많은 '회색 영역'을 정의하는 많은 복잡한 메트릭 관계를 가지고 있다면, '흑백' 논리적 규칙은 n 차 복잡도 확장으로 '회색'영역을 포함한다. 규칙 구문 형식(Format Syntax Format)(538)은 효율적인 저장 및 변수 쿼리를 위해 최적화 된 저장 형식이다.FIG. 78 illustrates how correction rules (533) are generated in contrast to conventional current rules (534) which may omit important insights and/or variables. By means of chaos region parsing (CFP) (535), the format of the log is combined into a single scannable unit known as a chaos region (613). Additional rules (536) are processed from memory recognition (MR) (501) to supplement the already established correction rules (533). Referring to the perceptive rules (537), percepts that are considered relevant and popular are converted into logical rules. If the percept (in its original perceptive form) has many complex metric relationships defining many 'gray areas', the 'black and white' logical rules include the 'gray' areas with an n-th order complexity extension. The rule syntax format (538) is a storage format optimized for efficient storage and querying of variables.

도 79 내지 도 80은 인식 매칭(PM; Perception Matching)(503) 모듈을 설명한다. 메트릭 통계(539)와 관련하여, 통계 정보는 인식 저장(PS)(479)에서 제공된다. 이러한 통계는 메트릭, 내부 메트릭 관계 및 메트릭 증가율 등의 인기 추세를 정의한다. 일부 일반적인 통계 쿼리(예 전체 메트릭 인기 순위)가 자동으로 실행되고 저장된다. 그 외 보다 구체적인 쿼리(메트릭 X 및 Y와 관련하여)는 PS(479)에서 실시간으로 요청된다. 메트릭 관계 홀드 아웃(540)은 메트릭 관계 데이터를 보유하므로 통합된 출력으로 푸시 될 수 있다. 오류 관리(541)는 임의의 개별 메트릭에서 유래하는 구문 및/또는 논리적 오류를 구문 분석한다. 메트릭들 분리(542)는 각각의 개별 메트릭을 입력 인식(544)이었던 단일 유닛에서 결합되기 때문에 격리시킨다. 입력 인식(Input Perception)(544)은 시각, 후각, 촉각 및 청각의 측정 지표로 구성되는 인식의 구성 예이다. 노드 비교 알고리즘(Node Comparison Algorithm, NCA)(546)은 2 개 이상의 CVF 중 노드 구성을 수신한다. CVF의 각 노드는 속성의 크기를 나타낸다. 유사성 비교는 개별 노드를 기준으로 수행되며 집계 분산이 계산된다. 이것은 효율적으로 계산 된 정확한 비교를 보장한다. 노드 별 또는 집계 가중이든 상관없이 더 작은 분산 번호는 더 가까운 일치를 나타낸다. CVF(Comparable Variable Formats)(547)는 CVF의 다양한 구성을 보여주는 시각적인 표현이다. 출력(550)은 인식 매칭(PM)(503)에 대한 터미널 출력이다. 노드 비교 알고리즘(Node Comparison Algorithm: NCA)(546)에서 어떤 노드들이 중첩되는지는 매칭 결과로서 유지되고, 따라서 전체 결과는 단계(550)에서 제출된다.Figures 79-80 illustrate the Perception Matching (PM) (503) module. With respect to the metric statistics (539), the statistics information is provided by the Perception Store (PS) (479). These statistics define popularity trends such as metrics, internal metric relationships, and metric growth rates. Some common statistics queries (e.g. overall metric popularity ranking) are automatically executed and stored. Other more specific queries (with respect to metrics X and Y) are requested in real time from the PS (479). The Metric Relationship Holdout (540) holds the metric relationship data so that it can be pushed to the unified output. Error Management (541) parses syntactic and/or logical errors originating from any individual metric. Metric Separation (542) isolates each individual metric so that it is combined into a single unit that was the Input Perception (544). The Input Perception (544) is an example of a perception configuration consisting of visual, olfactory, tactile, and auditory metrics. The Node Comparison Algorithm (NCA) (546) receives a node configuration from two or more CVFs. Each node of the CVF represents a size of an attribute. Similarity comparisons are performed on a per-node basis and an aggregate variance is computed. This ensures an efficient and accurate comparison. A smaller variance number, whether node-wise or aggregate-weighted, indicates a closer match. The Comparable Variable Formats (CVF) (547) are a visual representation showing the various configurations of the CVF. The output (550) is the terminal output for the Perceptual Matching (PM) (503). In the Node Comparison Algorithm (NCA) (546), which nodes overlap are maintained as a matching result, and thus the overall result is submitted at step (550).

도 81 내지 도 85는 규칙 구문 유도/ 생성을 보여준다. 원시 인식들- 직관적 사고(아날로그)(551)은 인식이 '아날로그'형식에 따라 처리되는 곳이다. 원시 규칙들- 논리적 사고(디지털)(552)는 규칙이 디지털 형식에 따라 처리되는 곳이다. 재정 할당 결정에 관한 아날로그 형식(553) 인식은 단계없이 부드러운 곡선의 그라디언트에 저장된다. 재무 할당 결정과 관련된 디지털 형식(554) 원시 규칙들은 '회색 영역'이 거의 또는 전혀 없는 단계로 저장된다. 원래의 규칙들(555)은 데이터 내용면에서 정정 규칙들(533)과 동일하다. 차이점은 원래의 규칙들(555)이 규칙 구문 형식 분리(RSFS)(499)에 의해 메모리 인식(501)을 통해 혼돈의 영역(613)과 상호 참조 할 수 있는 보다 동적인 형식으로 변환된다는 것 이다. 인식된 규칙 세그먼트들(556)은 메모리 인식(501)에서 인식한 원래의 규칙들(555)의 규칙이다. 이것은 원래 정정 규칙(533)(행동, 속성, 조건 및 객체와 같은)을 구성하는 개별 세그먼트 중 어느 것이 혼돈의 영역(613)에서 인식되었는지를 나타내므로 잠재적으로 논리적으로 충족된 규칙이 될 수 있다. 보안 중단 결정(Security Override Decisions)(557)은 정정 동작이 수행되도록 하는 규칙 실행(Rule Execution; RE)(461)에 의해 생성된 최종 결과이다. 이러한 정정 동작은 비판적 결정 출력(Critical Decision Output: CDO)(462)에서 수행되는 더 큰 정정 동작 로직의 서브 세트인 단자 출력 컨트롤(TOC; Terminal Output Control)(513)로 더 보내진다. 실행되지 않은 규칙들(Unfulfilled Rules)(558)은 논리적 종속 관계에 따라 혼돈의 영역(Chaotic Field)(613)에서(규칙 실행 파서(Rule Fulfillment Parser)(498)에 따라) 충분히 인식되지 않은 규칙 세트이다. 마찬가지로, 실행된 규칙들(517)은 CDO(462)에 의해 분석된 논리적 의존성에 따라 혼돈의 영역(613)에서 충분히 이용 가능하다고 인식되어왔다. 제 3(타사) 데이터베이스 솔루션(559)는 버퍼, 캐시, 디스크 저장소, 스레드 관리, 메모리 관리 및 기타 일반적인 기계 데이터베이스 기능을 관리하는 하드웨어 인터페이스 소프트웨어이다. 실행 디버거(560)는 충족되지 않은 규칙의 이유를 찾는다. 혼돈의 영역(613)이 충분히 여유있지 않았거나 규칙 집합이 본질적으로 비논리적이었거나 둘 중 하나이다. 규칙 집합이 비논리적이면 일정한 정확도 내에서 즉각적으로 확인할 수 있다. 그러나 혼돈의 영역(613)의 잠재적 예비성을 입증하려면, 불충분한 조사 수행의 오류에 빠지지 않도록 여러 조사가 이루어져야 한다.Figures 81 to 85 illustrate rule syntax derivation/generation. Primitive Perceptions - Intuitive Thinking (Analog) (551) is where perceptions are processed in an 'analog' format. Primitive Rules - Logical Thinking (Digital) (552) is where rules are processed in a digital format. Perceptions in analog format (553) relating to financial allocation decisions are stored in a smooth curved gradient without steps. Primitive rules in digital format (554) relating to financial allocation decisions are stored in steps with little or no 'gray area'. The original rules (555) are identical to the correction rules (533) in terms of data content. The difference is that the original rules (555) are transformed into a more dynamic format that can be cross-referenced with the area of chaos (613) via the memory perception (501) by the Rule Syntax Format Separation (RSFS) (499). The Recognized Rule Segments (556) are rules of the original rules (555) recognized in the memory recognition (501). This indicates which of the individual segments that make up the original correction rule (533) (such as actions, attributes, conditions, and objects) were recognized in the chaos domain (613), and thus could potentially be logically satisfied rules. Security Override Decisions (557) are the final output generated by Rule Execution (RE) (461) that causes corrective actions to be performed. These corrective actions are further sent to the Terminal Output Control (TOC) (513), which is a subset of the larger corrective action logic performed in the Critical Decision Output (CDO) (462). Unfulfilled Rules (558) are a set of rules that are not fully recognized in the Chaotic Field (613) (by the Rule Fulfillment Parser (498)) based on their logical dependencies. Similarly, the fulfilled rules (517) have been recognized as fully available in the Chaotic Field (613) based on their logical dependencies as parsed by the CDO (462). The third-party database solution (559) is hardware interface software that manages buffers, caches, disk storage, thread management, memory management, and other common machine database functions. The execution debugger (560) finds the reason for the unfulfilled rules. Either the Chaotic Field (613) was not sufficiently free, or the rule set was inherently illogical. If the rule set is illogical, it can be immediately identified within a certain degree of accuracy. However, to demonstrate the potential reserve of the Realm of Chaos (613), multiple investigations must be conducted to avoid the error of conducting insufficient investigations.

도 86 내지 도 87은 규칙 구문 형식 분리(RSFS; Rule Syntax Format Separation)(499) 모듈의 작동을 보여준다. 이 모듈에서 정정 규칙들(502)은 유형별로 분리되고 구성된다. 따라서 모든 동작, 속성, 조건 및 객체는 별도로 스택된다. 이것은 시스템으로 하여금 혼돈의 영역(613)에서 발견된 부분과 그렇지 않은 부분을 식별하게 한다. 동작(561)과 관련하여, 이미 수행되었을 수 있는 동작을 나타내는 4 개의 규칙 세그먼트 데이터 유형 중 하나가 수행되고, 활성화 등을 고려하고 있다. 속성들(562)과 관련하여, 동작, 조건 또는 객체 등 다른 속성을 나타내는 4 가지 규칙 세그먼트 데이터 유형 중 하나이다. 조건(563)과 관련하여, 논리 연산 또는 연산자를 나타내는 4 개의 룰 세그먼트 데이터 유형 중 하나 (즉, x 및 y이면 z, x 또는 z, y이면 z 등)이다. 객체(564)와 관련하여, 동작(561) 및 속성(562)과 같이 적용된 속성을 가질 수 있는 타겟을 나타내는 4 개의 룰 세그먼트 데이터 유형 중 하나 이다. 처리 단계(565)에서, 지금까지 수집된 관계 유도 결과가 출력으로서 제출되고 그 후 프로그램은 종료된다. 처리 단계(566)는 한번에 하나의 항목을 룰 세그먼트를 통해 반복한다. 처리 단계(567)는 규칙 세그먼트들(즉, 동작들(561), 객체들(564) 등) 간의 각각의 개별 관계를 해석하고 기록한다. 따라서, 각각의 개별 관계가 수집되어 단계(565)에서 출력을 위해 준비된다. 순차적 스캐닝(Sequential Scanning)(568)은 RSF(538)의 각 유닛을 '[분할 (DIVIDE)]' 마커로 분할한다. 주제와 RSF 538의 접착제도 분리되어 파싱된다. 분리 출력 (569)은 개별 주제 및 내부 주체 관계가 스캐너에 의해 유지되는 곳이다. 이들은 전체 RSF(538)가 순차적으로 스캔 될 때 즉시 출력되도록 보내진다. 분리된 규칙 포맷(570)은 분리 출력(569)으로부터 개별 규칙 세그먼트(즉, 동작 (561), 객체 (564) 등)를 포함하기 위한 전달 메커니즘이다. 분리된 규칙 형식(570) 사용은 두 가지 주요 정보 전달 포인트에서 강조 표시된다. 먼저 규칙 구문 형식 분리(Rule Syntax Format Separation)(499)(사전 메모리 인식 단계로 간주됨) 및 메모리 인식(Memory Recognition)(501)의 출력으로 강조 표시된다(사후 메모리 인식 단계).Figures 86 and 87 show the operation of the Rule Syntax Format Separation (RSFS) (499) module. In this module, correction rules (502) are separated and organized by type. Accordingly, all actions, properties, conditions and objects are stacked separately. This allows the system to identify which parts are found in the area of chaos (613) and which parts are not. With respect to the action (561), one of four rule segment data types representing an action that may have already been performed is being performed, activated, etc. With respect to the properties (562), one of four rule segment data types representing other properties such as an action, a condition or an object. With respect to the condition (563), one of four rule segment data types representing a logical operation or operator (i.e., if x and y then z, x or z, if y then z, etc.). In relation to the object (564), it is one of four rule segment data types that represent a target that can have applied properties such as actions (561) and properties (562). In the processing step (565), the relationship derivation results collected so far are submitted as output and the program is then terminated. The processing step (566) iterates through the rule segments one item at a time. The processing step (567) interprets and records each individual relationship between the rule segments (i.e., actions (561), objects (564), etc.). Thus, each individual relationship is collected and prepared for output in the step (565). The sequential scanning (568) splits each unit of the RSF (538) with the '[DIVIDE]' marker. The subject and the glue of the RSF 538 are also parsed separately. The split output (569) is where the individual subjects and internal subject relationships are maintained by the scanner. These are sent to be output immediately as the entire RSF (538) is scanned sequentially. The separated rule format (570) is a delivery mechanism for including individual rule segments (i.e., actions (561), objects (564), etc.) from the separated output (569). The use of the separated rule format (570) is highlighted at two key information transfer points: first, as the output of Rule Syntax Format Separation (499) (considered a pre-memory recognition step) and second, as the output of Memory Recognition (501) (post-memory recognition step).

도 88은 규칙 실행 파서(RFP)(498)의 동작을 도시한다. 이 모듈은 인식 태그로 규칙의 개별 세그먼트를 수신한다. 각각의 세그먼트는 메모리 인식(MR; Memory Recognition)(501)에 의해 혼돈 필드(613)에서 발견되거나 발견되지 않은 것으로 표시된다. 그러면 RFP(498)는 모든 부분들의 조합이 어느 전체 규칙이 충분히 인식되었는지를 논리적으로 추론 할 수 있다. 혼돈의 영역(613)은 규칙 실행(RE)(461)을 수행한다. 큐 관리(QM)(561)는 구문적 관계 복원(SRR; Syntactical Relationship Reconstruction) 모듈을 이용하여 각각의 개별 부분을 가장 논리적인 순서로 분석한다. QM(561)은 메모리 인식(MR)(501) 결과에 액세스 할 수 있으므로 바이너리 예/ 아니오 플로우 질문에 응답하고 적절한 조치를 취할 수 있다. QM은 모든 룰 세그먼트를 단계적으로 검사한다. 하나의 세그먼트가 혼돈의 영역(613)에서 누락되어 있고 다른 세그먼트와의 적절한 관계가 아니라면, 룰 세트는 충족되지 않은 것으로 플래그된다. 모든 검사 단계가 통과하면 룰 세트는 완료됨(522)으로 플래그된다. QM 스테이지 (571)는 규칙 세그먼트 '객체 C'가 혼돈의 영역(613)에서 발견되었는지를 검사한다. QM 스테이지(572)는 다음 적절한 세그먼트가 원래의 '객체 C'이고, 또한 메모리 인식(MR)(501)에 따른 혼돈의 영역(613)에서 발견된다. 조건 B 및 동작 A 각각에 대해 동일한 논리가 QM 스테이지(573 및 574)에 적용된다. 이러한 세그먼트 표시(A, B, C 등)는 프로그램의 핵심 로직의 일부가 아니지만 예상되는 일반적인 사용법을 표시하는데 사용되는 일관된 예제를 참조한다. 완전히 재구성된 룰세트(575)의 수신은 룰 세트가 성취 될 수있는 것으로 가정 된 큐 관리(576)의 성취된 룰세트 출력 및 구문적 관계 복원 (SRR) 모듈(497)에 의해 주어진 룰 세그먼트의 연관을 필요로 한다.Figure 88 illustrates the operation of the Rule Execution Parser (RFP) (498). This module receives individual segments of a rule with recognition tags. Each segment is marked as found or not found in the confusion field (613) by the Memory Recognition (MR) (501). The RFP (498) can then logically infer which combination of all the segments constitutes a complete rule that has been sufficiently recognized. The confusion field (613) performs the Rule Execution (RE) (461). The Queue Management (QM) (561) parses each individual segment into the most logical order using the Syntactical Relationship Reconstruction (SRR) module. The QM (561) has access to the results of the Memory Recognition (MR) (501) and can therefore answer binary yes/no flow questions and take appropriate actions. The QM examines all the rule segments step by step. If one segment is missing from the chaos region (613) and is not in an appropriate relationship with another segment, the rule set is flagged as unsatisfied. If all the checking steps pass, the rule set is flagged as complete (522). The QM stage (571) checks whether the rule segment 'object C' is found in the chaos region (613). The QM stage (572) determines that the next appropriate segment is the original 'object C', also found in the chaos region (613) according to the memory recognition (MR) (501). The same logic applies to the QM stages (573 and 574) for condition B and action A respectively. These segment notations (A, B, C, etc.) are not part of the core logic of the program, but refer to consistent examples used to indicate expected common usage. Reception of a fully reconstructed ruleset (575) requires association of the rule segments given by the queue management (576) with the achieved ruleset output and the syntactic relationship restoration (SRR) module (497) assuming that the ruleset can be achieved.

도 89 내지 도 90은 실행되지 않은 규칙의 이유를 찾으려는 실행 디버거(560)를 표시한다. 혼돈의 영역(613)이 충분히 여유가 있지 않거나 규칙 집합이 본질적으로 비논리적이다. 규칙 집합이 비논리적이면 일정한 정확도 내에서 즉각적으로 확인할 수 있다. 그러나 혼돈의 영역(613)의 잠재적인 여유를 확보하기 위해서는 설문 조사의 불충분함을 피하기 위해 여러 조사가 이루어져야 한다. 영역 희박성 조사(577)는 혼돈의 영역(613)이 충분히 풍부하거나 규칙 집합의 변수 구성을 트리거하지 않는지 여부를 구체적으로 검사한다. 스캔(578)은 혼돈의 영역(613) 내의 관련 규칙 파트의 존재를 검사한다. 조사 DB (579)는 가까운 장래의 참조를 위해 조사 결과를 저장한다.Figures 89 to 90 show an execution debugger (560) that attempts to find the reason for a rule not being executed. The region of chaos (613) is not sufficiently free or the rule set is inherently illogical. If the rule set is illogical, it can be immediately identified within a certain accuracy. However, in order to secure the potential free space of the region of chaos (613), multiple surveys should be performed to avoid the insufficiency of the survey. The region sparsity survey (577) specifically checks whether the region of chaos (613) is sufficiently rich or does not trigger the variable configuration of the rule set. The scan (578) checks for the presence of relevant rule parts within the region of chaos (613). The survey DB (579) stores the survey results for near future reference.

조건부(580)는 조사 DB(579)가 포화되거나/가득 채워졌는지를 검사한다. 즉, 긍정적이거나 부정적 결과가 나오는 스캔에도 불구하고 규칙 파트들(Rule Parts)에 대해 가능한 모든 검사가 수행되었음을 의미한다. 가능한 모든 스캔이 수행된 경우, 결론(581)이 관련된다: 전체 혼돈의 영역(613)의 희소가 규칙 집합이 충족되지 않은 것으로 분류된 이유이다. 가능한 모든 스캔이 수행되지 않은 경우, 결론(582)가 관련된다: 조사가 불완전하고, 혼돈의 영역(613) 희박성이 실현되지 않게 되는 원인인지를 확실하게 알리기 위해서 혼돈의 영역(613)의 더 많은 섹터들이 스캔 될 필요가 있다. 논리적 불가능성 시험(Logical Impossibility Test)(583)은 규칙 집합 내에서 본질적으로 불가능한 논리적 종속성이 존재 하는지를 검사하여 이것이 불완전한 것으로 분류되도록 한다. 예를 들어, 객체(584) '미혼남자(Bachelor)'는 속성(585)이 '결혼함'으로 지정되어 있어 고유의 모순이 발생한다. 시험(583)은 용어들(584 및 585)의 사전 정의들을 결정한다. 내부 규칙 일관성 검사(588)는 모든 속성들이 대응하는 객체와 일치되고 연관되는지를 검사 할 것이다. RSF(538) 형식의 '미혼남자(Bachelor)'(584) 정의는 객체(586) '남자(Man)'의 부분 정의에 기여하고 '결혼한(Married)'(585) 정의 (RSF(538) 형식에도 있음)는 객체(587) '두사람(Two People)'의 부분적인 정의에 기여한다. 검사(588)의 결론은 객체(586) '남자(Man)'가 객체(587) '두사람(Two People)'을 잠재적으로 포함하고 있는 한, 정의(586과 587)가 모두 호환된다. 규칙 관련성 전환(589)을 사용하여 공정한 조건을 변환하여 비교 테스트를 수행한다. 이러한 전환은 두 번째 정의('결혼한')가 첫 번째 정의 ('미혼남자')의 맥락에서 이해되도록 한다. 따라서 결론(591)은 같은 사람이 현재 결혼을 하고(590) 동시에 현재 결혼하지 않을(592) 수 없는, 고유의 모순을 포함하는 규칙을 도출한다.The conditional (580) checks whether the investigation DB (579) is saturated/full, meaning that all possible scans have been performed on the Rule Parts despite scans resulting in positive or negative results. If all possible scans have been performed, the conclusion (581) is relevant: the sparsity of the entire Chaos Region (613) is the reason why the rule set is classified as unsatisfied. If all possible scans have not been performed, the conclusion (582) is relevant: more sectors of the Chaos Region (613) need to be scanned to ensure that the investigation is incomplete and that the sparsity of the Chaos Region (613) is the reason why the rule set is not fulfilled. The Logical Impossibility Test (583) checks whether there are any inherently impossible logical dependencies within the rule set, causing them to be classified as incomplete. For example, object (584) 'Bachelor' has an inherent contradiction because its property (585) is specified as 'married'. Test (583) determines the dictionary definitions of terms (584 and 585). Internal rule consistency check (588) will check that all properties are consistent and associated with their corresponding objects. The definition of 'Bachelor' (584) in RSF (538) form contributes to a partial definition of object (586) 'Man', and the definition of 'Married' (585) (also in RSF (538) form) contributes to a partial definition of object (587) 'Two People'. The conclusion of test (588) is that as long as object (586) 'Man' potentially contains object (587) 'Two People', both definitions (586 and 587) are compatible. We perform a comparison test by transforming the fair condition using rule relevance transformation (589). This transformation makes the second definition ('married') understandable in the context of the first definition ('single man'). Thus, the conclusion (591) derives a rule that contains an inherent contradiction, that the same person cannot be both currently married (590) and currently unmarried (592) at the same time.

도 91은 규칙 실행(RE)(461)을 도시한다; 현재와 같은 것으로 확인되고 메모리의 혼돈의 영역(613)의 스캔에 따라 수행된 규칙들은 실행되어 원하는 관련된 비판적 사고 결정을 내린다. 룰 세트의 전환을 추적하는데 사용되는 체커보드 평면이 있다.  보드상의 객체는 주어진 보안 상황의 복잡성을 나타내며 '보안 체커 보드'를 가로 지르는 객체의 움직임은 보안 룰세트의 응답에 의해 관리되는 보안 상황의 진화를 나타낸다. 단계 1(593)은 RSF(538) 정보는 체커보드 평면상의 모든 관련 객체의 초기 시작 위치를 정의하므로, 동적으로 계단식 보안 상황의 시작을 정의한다. 이것은 동적 보안 정책을 다루는 규칙의 논리적인 '위치'를 설명하기 위해 상징적으로 사용된다. 2 단계 (594) 및 6 단계(598)은 특정 보안 상황의 위치 및 범위를 수정하는 적용되는 보안 규칙을 나타내는 객체 변형을 나타낸다. 예를 들어 2 단계와 6 단계에서 객체를 변환하면 암호화된 파일을 나타낼 수 있다. 3 단계(595)는 보안 응답 전략의 일부로 오프 사이트 위치로 중요한 파일을 실제로 이동시키는 것과 일치 할 수 있는 체커보드 위의 개체 이동을 보여준다. 4 단계(596) 및 5 단계(597)는 공통의 제 3 객체로 2 개의 객체를 병합하는 프로세스를 도시한다. 이 규칙의 적용 예는 효율적이고 안전하게 관리되는 정보 전송을 용이하게 하기 위해 병합되는 두 개의 분리 및 격리된 LAN이다. 규칙 실행(RE)(461)이 완료되면 정정 규칙(533)과 현재 규칙(534)의 결과가 다르다. 이는 선택된 패턴 매칭 알고리즘 (SPMA)(526)에서 생성된 덜 중요한 결과와 대조적으로 CTMP가 수행한 비판적 사고 이점을 보여준다. 모양들, 색들 및 위치들 모두는 보안 변수, 발생 및 응답을 상징적으로 나타낸다(실제 보안 개체보다는 설명하기 쉽기 때문에). SPMA는 CTMP와는 다른 최종 형상 위치뿐만 아니라 오각형과 유사하지만 다른(오렌지색 대 노란색) 색상 차이를 생성했다. 이것은 모든 입력 로그가 처리를 위해 통과하는 복잡한 조건문 - 룰 세트 구성으로 인해 발생한다. 이것은 다양한 플레이어 변수(높이, 힘 등)와 당구시험을 어떻게 시작하느냐는 완전히 다른 결과의 공 위치로 이어질 수 있는 것과 유사하다. CTMP는 또한 보라색 사각형을 큐브로 변형 시켰는데, 이는 SPMA(526) 또는 인간이 결코 예상하거나 고려하지 않은 차원과 인식을 고려하는 능력을 상징적으로 보여준다(CTMP의 설명을 통해). 최종 보안 중단 결정(599)은 정정 규칙들(533)에 따라 수행된다.Figure 91 illustrates Rule Execution (RE) (461); the rules that are currently identified and executed based on the scan of the memory's chaotic region (613) are executed to make the desired relevant critical thinking decisions. There is a checkerboard plane used to track the transitions of the rule set. The objects on the board represent the complexity of a given security situation and the movement of the objects across the 'security checkerboard' represents the evolution of the security situation as governed by the responses of the security ruleset. Step 1 (593) defines the start of a dynamically cascaded security situation, as the RSF (538) information defines the initial starting position of all relevant objects on the checkerboard plane. This is used symbolically to describe the logical 'position' of the rules that govern the dynamic security policy. Steps 2 (594) and 6 (598) represent object transformations that represent the applied security rules that modify the position and scope of a particular security situation. For example, transforming an object in steps 2 and 6 could represent an encrypted file. Step 3 (595) illustrates the movement of objects on a checkerboard that may correspond to the actual movement of critical files to an off-site location as part of a security response strategy. Steps 4 (596) and 5 (597) illustrate the process of merging two objects into a common third object. An example of this rule application is two separate and isolated LANs that are merged to facilitate efficient and securely managed information transfer. Upon completion of the Rule Execution (RE) (461), the results of the Correction Rule (533) and the Current Rule (534) are different. This demonstrates the critical thinking advantage that CTMP has in contrast to the less critical results generated by the Selected Pattern Matching Algorithm (SPMA) (526). The shapes, colors, and locations all symbolically represent security variables, occurrences, and responses (since they are easier to explain than actual security objects). SPMA produced a final shape location that was different from CTMP, as well as a color difference that was similar to a pentagon but different (orange vs. yellow). This is due to the complex set of conditionals - rulesets that all input logs pass through for processing. This is similar to how different player variables (height, strength, etc.) and how the billiards test is started can lead to completely different ball positions. CTMP also transformed the purple square into a cube, which symbolically shows the SPMA (526) or the ability to consider dimensions and perceptions that humans never expected or considered (via CTMP). The final security termination decision (599) is made according to the correction rules (533).

도 92 및 도 93은 알파벳과 같은 연속 된 정보의 '사슬'에 대한 읽기와 쓰기의 효율성을 극대화하는 최적화된 정보 저장 방법인 순차적 메모리 구성을 보여준다. 메모리 액세스 포인트(600)에서, 각 노드(601)의 폭은 기억된 객체(노드)에 대한 관찰자의 직접 액세스 가능성을 나타낸다. 순차적으로 기억된 알파벳 순서에서 'A'는 시퀀스의 첫 번째 노드이므로 가장 쉽게 액세스 할 수 있는 지점이다. 문자의 E, H 및 L은 하위 시퀀스 'EFG', 'HIJK'및 'LMNOP'의 '리더'이기 때문에보다 쉽게 직접 액세스 할 수 있다. 접근성 범위(602) 각 문자는 관찰자에게 직접적인 메모리 액세스 포인트를 나타낸다. 액세스 가능성 범위가 넓을수록 시퀀스 노드 당 더 많은 액세스 지점이 있고 그 반대가 사실임을 나타낸다. 시퀀스가 '순서대로'만 참조되고 무작위로 선택된 노드에서는 참조되지 않을수록 시퀀스 크기에 비해 액세스 가능성 범위가 좁아진다. 이는 연속성의 크기에 따라 보다 효율적인 메모리 기억을 가능하게 한다. 중첩된 서브 - 시퀀스 계층(603)과 함께, 강한 불균일성을 나타내는 시퀀스는 상호 접속하는 일련의 더 작은 서브 - 시퀀스로 구성된다. 알파벳 'ABCD', 'EFG', 'HIJK', 'LMNOP'은 모두 기억된 순서대로 독립적으로 존재하지만, 전체적으로 알파벳을 상호 연결하고 형성하기 때문에 알파벳 순서는 이러한 행동을 크게 나타낸다. 이러한 유형의 메모리 저장 및 참조는 마스터 시퀀스의 특정 노드에 가끔 또는 자주 액세스하는 경우 훨씬 효율적이다. 이러한 방식으로 전체 시퀀스의 시작부터 스캐닝을 피할 수 있으므로 시간과 리소스의 효율성을 높일 수 있다. 이것은 모든 검색에서 첫 페이지에서 책을 스캔하는 것이 아니라 장에 따라 스캔되는 책과 유사하다. 극도로 불균일한(605) 범위에서는 모든 노드에서 일관성 없는 액세스 지점이 있다. 즉 체인과 같이 상호 연결된 중첩 된 하위 시퀀스가 무거운 구성으로 되어 있음을 의미한다. 극도로 불균일한 시퀀스는 중간 순차적이지만 아직 여러 메모리 액세스 지점(중첩 된 하위 시퀀스 계층)을 가져야 함을 의미한다. 극도로 불균일한(605) 예는 알파벳으로, 어떤 문자로 시작하는지에 따라 암기하기가 쉽지 않다. 극도로 균일한(607) 범위에서는 모든 노드에서 일관된 액세스 지점이 있다. 즉, 체인처럼 상호 연결된 중첩된 하위 시퀀스로 구성되지 않는다. 극도로 균일한 시퀀스는 극히 순차적(노드 전체에 일관되게 거의 액세스 지점이 없음)이거나 또는 극히 비 순차적(노드 전체에서 지속적으로 큰 액세스 지점)임을 의미한다. 극도로 균일한(607) 예는 과일의 모음이다. 열거하고 강조한 시퀀스가 거의 없으며 상호 연결된 하위 시퀀스가 없다. 적정하게 균일한(606) 범위에는 초기 대형 액세스 노드가 있으므로 처음부터 내용을 암기하는 것이 가장 효율적이다. 그러나 주요 내용은 또한 선형이며, 중첩된 하위 시퀀스 계층이 없고 단일한 큰 시퀀스가 있음을 나타낸다. 적정하게 불균일한(604) 범위는 전체적으로 선형적이고 일관된 액세스 지점에서 벗어나지 않는다. 이것은 일관되고 뒤집을 수 있는 컬렉션을 준수하는 동시에 더 세밀하고 덜 정의된 중첩된 하위 시퀀스 레이어가 있음을 나타낸다. 적정하게 뷸균일한(604)의 동작을 나타내는 정보의 예는 자동차 제조업체의 카탈로그 일 수 있다. 스포츠카, 하이브리드 및 SUV와 같은 범주가 정의 될 수 있지만 잠재적인 고객이 별도의 범주 지정에도 불구하고 SUV와 스포츠카를 비교할 수 있기 때문에 목록을 열거하거나 기억해야 하는 방법에 대한 강한 편견은 없다.Figures 92 and 93 show a sequential memory configuration, which is an optimized information storage method that maximizes the efficiency of reading and writing for a 'chain' of sequential information such as an alphabet. In the memory access point (600), the width of each node (601) indicates the direct accessibility of the observer to the stored object (node). In the sequentially stored alphabet order, 'A' is the first node of the sequence and therefore the most easily accessible point. The letters E, H and L are the 'leaders' of the subsequences 'EFG', 'HIJK' and 'LMNOP' and therefore can be more easily directly accessed. Accessibility range (602) Each letter indicates a direct memory access point to the observer. The wider the accessibility range, the more access points there are per sequence node, and vice versa. The more the sequence is referenced 'in order' and not referenced at randomly selected nodes, the narrower the accessibility range becomes relative to the sequence size. This enables more efficient memory storage depending on the size of the continuity. With the nested sub-sequence hierarchy (603), a sequence that exhibits strong non-uniformity is composed of a series of smaller sub-sequences that are interconnected. The alphabets 'ABCD', 'EFG', 'HIJK', 'LMNOP' all exist independently in the memorized order, but the alphabet as a whole interconnects and forms the alphabet, so the alphabetic order exhibits this behavior to a large extent. This type of memory storage and reference is much more efficient when specific nodes of the master sequence are accessed occasionally or frequently. In this way, scanning from the beginning of the entire sequence can be avoided, which increases the efficiency of time and resources. This is similar to a book that is scanned by chapter rather than scanning the book from the first page for every search. In the extremely non-uniform (605) range, there are inconsistent access points at all nodes. This means that there is a heavy composition of nested sub-sequences that are interconnected like a chain. An extremely non-uniform sequence is intermediately sequential, but still has several memory access points (nested sub-sequence hierarchies). An extremely non-uniform (605) example is the alphabet, which is not easy to memorize depending on which letter it starts with. In an extremely uniform (607) range, there is a consistent access point at every node, i.e., it is not composed of nested subsequences that are interconnected like a chain. An extremely uniform sequence is either extremely sequential (always having few access points across nodes) or extremely non-sequential (always having large access points across nodes). An extremely uniform (607) example is a collection of fruits. There are few sequences listed and highlighted, and no interconnected subsequences. A moderately uniform (606) range has a large initial access node, so it is most efficient to memorize the content from the beginning. However, the main content is also linear, indicating that there is no nested subsequence layer, but a single large sequence. A moderately non-uniform (604) range does not deviate from a linear and consistent access point throughout. This indicates that there are more fine-grained and less defined nested subsequence layers while still maintaining a consistent and reversible collection. An example of information that exhibits moderately non-uniform (604) behavior might be a catalog of car manufacturers. Categories such as sports cars, hybrids and SUVs may be defined, but there is no strong bias in how they should be listed or remembered, as potential customers can compare SUVs and sports cars despite the separate category designations.

도 94는 과일과 같은 비 순차적인 관련 아이템의 정보 저장을 다루는 비 순차 메모리 구성을 도시한다. 과일 모음에서 정보를 읽는 방법은 강한 순차 순서가 있는 알파벳과 달리 읽어야하 는 순서는 매우 명확하지 않다. 메모리 구성(608)은 모든 과일에 대해 일관되게 균일한 액세스 노드를 보여주며 비 순차적 조직을 나타낸다. 608의 조직은 가역성이 비 순차적 배열과 일정한 범위를 나타내는 방법을 보여준다. 이 예에서는 과일 당의 메모리가 노드별로 상대적으로 넓은 액세스 포인트로 표시되어 비 순차적임을 나타낸다. 과일의 순서가 뒤섞일 때 동일한 균질성이 존재하는데 이는 과일의 가역적 순서를 나타낸다. 대조적으로, 알파벳과 같은 순차 시리즈는 일반적인 암송과는 반대로 뒤로 암송하는 것이 훨씬 더 어렵다. 일반적인 과일의 목록은 이 현상이 나타나지 않으며 순차적인 목록에서보다 순차적인 목록의 외부에서 자주 참조된다는 것을 나타낸다. 중심 주제 및 연관(609)에서는이 과일 목록에 연속성이 없으므로 동일한 일련의 과일이 반복되지만 중심(중심 객체)이 다르게 반복된다. 중심은 기본 주제를 나타내며, 남아있는 과일은 중심 주제가 정의되지 않은 경우보다 쉽게 접근 할 수 있는 메모리 이웃으로 작용한다. 강한 이웃(610A)에서는 사과가 일반적인 과일 임에도 불구하고 철자가 겹치기 때문에 다른 일반적인 과일보다 파인애플과 더 강한 연관성이 있다. 따라서 더 많은 메모리와 연관된 것으로 간주된다. 약한 이웃(610B)에서는 파인애플이 열대 과일이기 때문에 오렌지와 바나나(일반 과일)와의 연관성이 적다. 파인애플은 열대성 겹침 때문에 망고로 참조 될 가능성이 더 크다. 그래프 포인트(612)는 과일 계열의 극히 약한 순차가 노드(601) 액세스에서 극도로 강한 균일성을 유도하는 방법을 보여준다.Figure 94 illustrates a non-sequential memory configuration that deals with the storage of information of non-sequential related items, such as fruits. The order in which information should be read from a collection of fruits is not very clear, unlike an alphabet with a strong sequential order. The memory configuration (608) shows uniform access nodes for all fruits, indicating a non-sequential organization. The organization of 608 shows how reversibility is represented by non-sequential arrangements and constant ranges. In this example, the memory per fruit is represented by relatively wide access points per node, indicating non-sequentiality. The same homogeneity exists when the order of the fruits is shuffled, indicating a reversible order of the fruits. In contrast, a sequential series, such as an alphabet, is much more difficult to recite backwards than in a typical recitation. A typical list of fruits does not exhibit this phenomenon, indicating that they are referenced more often outside of a sequential list than in a sequential list. The central theme and association (609) shows that there is no continuity in this list of fruits, so the same series of fruits are repeated, but the center (the central object) is repeated differently. The center represents the primary topic, and the remaining fruits act as memory neighbors that are more easily accessible than if the central topic were not defined. In the strong neighbor (610A), apple is more strongly associated with pineapple than with other common fruits due to the spelling overlap, even though it is a common fruit. Therefore, it is considered to be more memory-associated. In the weak neighbor (610B), pineapple is less associated with orange and banana (common fruits) because it is a tropical fruit. Pineapple is more likely to be referenced as mango because of the tropical overlap. The graph point (612) shows how the extremely weak sequence of the fruit series leads to extremely strong uniformity in accesses to node (601).

도 95 내지 도 97은 알려진 개념을 인식하기 위해 혼돈의 영역(613) 스캐닝이 수행되는 메모리 인식(MR)(501)을 도시한다. 혼돈의 영역(613)은 '화이트 노이즈'정보에 임의로 담긴 개념의 '영역'이다. 자발적으로 CTMP 시스템에 알려지며 '야생에서'예측할 수 없는 것으로 간주된다. 메모리 인식의 목적은 필드를 효율적으로 스캔하여 알려진 개념을 인식하는 것이다. 메모리 개념 보유(Memory Concept Retention)(614)는 인식 가능한 개념들이 저장되고 필드 검사를 위해 인덱싱되고 참조 될 준비가 된다. 이 그림에서는 야채 이름 철자의 단순화된 예를 사용하여 시스템을 쉽게 이해한다. 그러나 이 예제는 훨씬 더 복잡한 시나리오에 대한 비유로 사용될 수 있다. 실생활의 보안 예를 들어, 이것은 카메라 피드에서 시민과 군인을 인식하고 구별하는 것을 포함 할 수 있다. 사이버 보안의 경우, 알려지고 기억된된 트로이 목마, 백도어를 인식하고, 보안 화이트 노이즈(로그들)의 바다에서 탐지하는 것을 포함 할 수 있다. 3 개의 문자 스캐너(615)에 의해, 혼돈의 영역(613)은 표적에 대응하는 3 개의 문자 세그먼트들에 대하여 스캐닝되고 검사된다. 예를 들어 'PLANT'는 대상이며 스캐너는 3 글자마다 점진적으로 필드를 따라 이동한다. 스캐너가 전진 할 때마다 'PLA', 'LAN'및 'ANT'세그먼트는 'PLANT'라는 단어의 하위 집합이므로 확인된다. 그럼에도 불구하고 'LAN'과 'ANT'라는 단어는 대상이 되는 독립적인 단어에 해당된다. 따라서 이 세 글자 세그먼트 중 하나가 필드에서 발견되면 'LAN'또는 'ANT'의 전체 대상이 발견되었거나 'PLANT'의 하위 집합이 발견되었을 수 있다. 동일한 개념이 5 문자 스캐너(616)에 적용되지만, 이번에는 영역 전체에서 모든 전진로 검사되는 세그먼트가 전체 단어는 'PLANT'이다. 'LAN'및 'ANT'와 같은 대상은 5 글자 스캐너와 함께 작동하려면 최소 5 자의 대상이 필요하므로 생략된다. 혼돈의 영역(613)은 다양한 비율(3, 5 또는 그 이상의 문자 스캐닝)로 스캐닝을 위해 분할되며, 이러한 비율은 다양한 레벨의 스캐닝 효율성 및 효능을 제공한다. 스캐닝의 범위가 감소함에 따라 (글자의 양이 적을수록) 정확도는 증가한다(그 반대도 마찬가지이다). 스캐너의 필드 영역이 증가함에 따라 더 큰 문자 스캐너가 정확도를 희생하면서 인식을 수행하는데 효율성은 증가한다(대상이 얼마나 작은 지에 달려 있음). 메모리 개념 인덱싱(MCI; Memory Concept Indexing)(500)을 사용하면 617 단계는 처리되지 않은 메모리 개념에 대한 응답으로 스캐너 크기(3, 5 또는 그 이상)를 변경한다. MCI(500)은 사용 가능한 가장 큰 스캐너로 시작하여 617 단계에서 점진적으로 감소하므로 작은 메모리 개념 목표의 잠재적 존재를 확인하기 위해 더 많은 컴퓨팅 리소스를 찾을 수 있다. 618 단계는 이용 가능한 메모리 개념을 순환시켜 620 단계에서 그들의 인덱스(3 또는 5와 같은 적절한 길이에 적합한 작은 세그먼트)가 도출될 수 있도록 한다. 개념 홀드 아웃(624)에 메모리 개념이 아직 존재하지 않으면 619단계는 작업의 물류 흐름에 따라 메모리 개념이 생성된다. 621 단계는 620 단계로부터 유도된 인덱스를 홀드 아웃(624)에 할당한다. MCI(500)의 프로그래밍된 전체 순환이 계속되면 MCI에 처리되지 않은 문자 스캐너가 부족한 경우 분기점에 도달하면 홀드 아웃(624)이 비어있는 경우 빈 (null) 결과(622)를 제출하거나 모듈러 출력(623)으로써 비어있는 홀드 아웃(624)을 제출한다. 혼돈의 영역(613)의 섹션은 도면 부호 625 내지 628의 범위이다. 섹션 625 및 626은 5 글자 스캐너로 수행되는 스캔을 나타내며 섹션 627 및 628은 3 글자 스캔을 나타낸다. 스캔(625)은 5 글자의 너비를 가지며 6 글자 대상 'TOMATO'를 확인한다. 2 개의 5 문자 세그먼트는 이전에 MCI(500)에서 인덱스된 'TOMAT'및 'OMATO'에서 일치했다. 이들 각각은 6 글자 단어 중 5 문자 일치에 해당하며 83 %에 해당한다. 이 분율/ 백분율은 메모리 개념 'TOMATO'에 비해 167 %(637)에 누적적으로 추가되므로 'TOMATO'개념이 혼돈 영역(613)에서 성공적으로 발견되었다. 스캔(626)은 'EGGPLANT'의 메모리 개념 타겟을 가지며, 2 개의 중요한 세그먼트는 'GGPLA'및 'PLANT'이다. 'GGPLA'는 독점적으로 'EGGPLANT'의 진정한 의미를 나타내지만 'PLANT'는 그 자체로 메모리 개념의 목표 인 거짓 긍정의 잠재력을 소개한다. 시스템이 혼돈의 영역(613)에 존재하는 것으로 'PLANT'를 인식하기 위해서는 필드에서 'EGGPLANT'만이 유일하게 실제로 인식 가능한 메모리 개념이 거짓 긍정으로 분류된다. 그러나 시스템의 프로그래밍은 잘못된 긍정 시나리오를 우회할 수 있다. 'GGPLANT'는 63 %의 일치를 나타내며 'EGGPLANT'의 맥락에서 'PLANT'는 63 %를 기여하고 목표 'PLANT'는 100 %를 기여한다. 일치 항목이 집계로 추가되면 'EGGPLANT'는 총 점수 125%(63% + 63%)(638)를 받고 대상 'PLANT'는 100%(639)를 받는다. 따라서 스캐너는 혼돈의 영역(613)에 대한 정확한 해석을 성공적으로 유지했다. 스캔 (627)의 너비는 3 글자이며 세그먼트 'TOM'을 인식하여 총 일치가 50 %(640)로 이어진다. 이것은 스캔(625) 필드에 존재하는 것과 동일한 대상이지만 스캔 너비 (5 대신 3)의 차이로 인해 신뢰도가 약한 (50 % 대 167 %) 일치가 발견되었다. 따라서 MCI(500)의 설계에는 정밀도와 소비된 컴퓨팅 리소스 간의 올바른 균형을 맞추기 위해 여러 스캔 계층이 포함된다. 스캔(628)은 또한 3 개의 문자들의 폭을 통합하는데, 이번에는 2 개의 잠재적 인 거짓 긍정 접선들(636)이 있다. 필드의 실제 컨셉이 'CARROT'인 반면, 'CAR'과 'ROT'컨셉은 필드에 존재하는 것으로 간주된다. 이제 스캐너는 혼돈의 영역(613)에 있는 정확한 개념을 식별해야 한다. 가까운 문자로 수행된 후속 스캔으로 확인된다. 결과적으로 스캐너는 다른 위치에 있는 지표의 확증 때문에 개념이 'CARRO'가 아니라 'CAR'또는 'ROT'가 아닌 'CARROT'로 인식한다. 'CAR'641의 100 % 합성 일치와 'ROT'643의 100 % 합성 일치는 모두 'CARROT'642의 200 % 합성 일치에 손실된다.Figures 95-97 illustrate memory recognition (MR) (501) where scanning of the field of chaos (613) is performed to recognize known concepts. The field of chaos (613) is a 'field' of concepts randomly contained in 'white noise' information. They are known to the CTMP system spontaneously and are considered unpredictable 'in the wild'. The goal of memory recognition is to efficiently scan the field to recognize known concepts. Memory Concept Retention (614) is where recognizable concepts are stored and indexed for field examination and ready to be referenced. This figure uses a simplified example of vegetable name spelling to facilitate understanding of the system. However, this example can be used as a metaphor for much more complex scenarios. For real-world security examples, this could involve recognizing and distinguishing between civilians and soldiers in a camera feed. For cybersecurity, this could involve recognizing known and remembered Trojans, backdoors, and detecting them in a sea of security white noise (logs). By the three character scanner (615), the chaos field (613) is scanned and examined for three character segments corresponding to a target. For example, 'PLANT' is the target and the scanner moves incrementally along the field for each of the three characters. As the scanner advances, the segments 'PLA', 'LAN' and 'ANT' are identified as subsets of the word 'PLANT'. Nevertheless, the words 'LAN' and 'ANT' correspond to independent words that are targets. Therefore, if one of these three character segments is found in the field, the entire target of 'LAN' or 'ANT' may have been found, or a subset of 'PLANT' may have been found. The same concept applies to the five character scanner (616), but this time the segments examined throughout the field at every advance are the entire word 'PLANT'. Targets such as 'LAN' and 'ANT' are omitted since a minimum of five character targets are required to work with the five character scanner. The chaos area (613) is divided into scans at various ratios (3, 5 or more character scans), which provide different levels of scanning efficiency and effectiveness. As the scanning range decreases (fewer characters), accuracy increases (and vice versa). As the field area of the scanner increases, larger character scanners perform recognition at the expense of accuracy (depending on how small the target is). Using Memory Concept Indexing (MCI) (500), step 617 changes the scanner size (3, 5 or more) in response to unprocessed memory concepts. The MCI (500) starts with the largest scanner available and progressively decreases in step 617, allowing more computing resources to be found to identify potential presence of small memory concept targets. Step 618 iterates through the available memory concepts so that their indices (small segments of appropriate length, such as 3 or 5) can be derived in step 620. If the memory concept does not yet exist in the concept hold out (624), step 619 creates the memory concept according to the logistical flow of the work. Step 621 assigns the index derived from step 620 to the hold out (624). As the programmed full loop of the MCI (500) continues, if the MCI runs out of unprocessed character scanners, a branch point is reached, and if the hold out (624) is empty, it submits an empty (null) result (622) or submits an empty hold out (624) as the modular output (623). The sections of the area of confusion (613) are in the range of reference numerals 625 to 628. Sections 625 and 626 represent scans performed with a 5-character scanner, and sections 627 and 628 represent 3-character scans. The scan (625) has a width of 5 characters and identifies a 6-character target 'TOMATO'. The two 5-character segments matched 'TOMAT' and 'OMATO', which were previously indexed in MCI (500). Each of these corresponds to a 5-character match in a 6-letter word, which is 83%. This fraction/percentage adds cumulatively to 167% (637) for the memory concept 'TOMATO', indicating that the concept 'TOMATO' was successfully discovered in the chaotic region (613). The scan (626) has a memory concept target of 'EGGPLANT', and the two significant segments are 'GGPLA' and 'PLANT'. 'GGPLA' exclusively represents the true meaning of 'EGGPLANT', while 'PLANT' introduces the potential for false positives, which are targets of memory concepts in themselves. In order for the system to recognize 'PLANT' as existing in the chaotic region (613), 'EGGPLANT' must be the only memory concept in the field that is actually recognizable, and thus be classified as a false positive. However, the programming of the system can bypass the false positive scenario. 'GGPLANT' gives a 63% match, in the context of 'EGGPLANT' 'PLANT' contributes 63% and the target 'PLANT' contributes 100%. When the matches are added as aggregates, 'EGGPLANT' receives a total score of 125% (63% + 63%) (638) and the target 'PLANT' receives 100% (639). Thus the scanner successfully maintained the correct interpretation of the area of confusion (613). The scan (627) is 3 characters wide and recognizes the segment 'TOM', leading to a total match of 50% (640). This is the same target present in the scan (625) field, but due to the difference in scan width (3 instead of 5), a weaker (50% vs. 167%) match was found. Therefore, the design of the MCI (500) includes multiple scan layers to strike the right balance between precision and consumed computing resources. The scan (628) also incorporates a span of three characters, this time with two potential false positive tangents (636). While the actual concept in the field is 'CARROT', the concepts 'CAR' and 'ROT' are considered to exist in the field. Now the scanner must identify the correct concept in the region of confusion (613). This is confirmed by subsequent scans performed with nearby characters. As a result, the scanner recognizes the concept as 'CARROT' rather than 'CAR' or 'ROT', due to the corroboration of the indicators at different locations. The 100% synthetic match of 'CAR'641 and the 100% synthetic match of 'ROT'643 are both lost to the 200% synthetic match of 'CARROT'642.

도 98 및 도 99는 영역 해석 로직(FIL; Field Interpretation Logic)(644 및 645)를 보여주는데, 이는 적절한 결과로 다양한 너비의 스캐너를 관리하기 위한 실행 계획을 운영한다. 일반 범위 스캔(629)은 큰 문자 스캔으로 시작된다. 이러한 유형의 검사는 작은 규모의 정확성을 희생하면서 적은 리소스로 넓은 범위의 필드를 탐색 할 수 있다. 따라서 더 작은 글자 스캐너는 필드의 보다 구체적인 범위를 위임 받아 필요에 따라 정확도를 향상시킨다. 특정 범위 스캔(630)은 중요도가 있는 영역을 찾을 때 사용되며 '확대'해야 한다. 일반적인 상관 관계는 스캔을 위해 선택한 필드 범위가 작을수록 작은 종류의 스캐너(글자 수가 적음)이다. 따라서 비용이 많이 드는 이중화된 위치에서 비용이 많이 들지 않는 스캔을 수행 할 수 있다. FIL의 섹션(645)은 스캐너 결과에 대한 반동 실행 계획을 표시한다. 특정 스캐너가 혼돈의 영역(613)에서 메모리 개념을 추가로 인식하면 이는 영역 범위(631)(613의 섹터)에 메모리 개념의 고밀도 포화가 포함되어 있으며 작은 폭의 스캐너들로 특정 범위에서 '확대'할 가치가 있음을 나타낸다. 따라서 필드 범위가 30 % (632) 인 5 글자 스캐너는 "증가된 '추가'인식"(634)으로 간주되는 초기 결과인 경우 10 %(633) 필드 범위의 3 글자 스캐너를 활성화한다. 634의 '추가'는 FIL 섹션(644)에서 수행된 최초 인식에 보충되는 인식을 나타낸다.Figures 98 and 99 show the Field Interpretation Logic (FIL) (644 and 645) which operates the execution plan to manage the various width scanners with appropriate results. The general range scan (629) starts with a large character scan. This type of scan can scan a wide range of fields with fewer resources while sacrificing accuracy on a small scale. Therefore, the smaller character scanners are delegated more specific ranges of the field and improve accuracy as needed. The specific range scan (630) is used when looking for areas of interest and need to be 'zoomed in'. The general correlation is that the smaller the field range chosen for the scan, the smaller the type of scanner (fewer characters). Therefore, less expensive scans can be performed at expensive duplicate locations. Section 645 of the FIL shows the back-end execution plan for the scanner results. If a particular scanner additionally recognizes a memory concept in the field of chaos (613), this indicates that the field range (631) (sector of 613) contains a high density saturation of memory concepts and that it is worth 'augmenting' it with scanners of smaller widths in that range. Thus a 5-letter scanner with a field range of 30% (632) would activate a 3-letter scanner with a field range of 10% (633) if that is the initial result considered an "increased 'additional' recognition" (634). The 'addition' in 634 indicates a recognition that is supplementary to the initial recognition performed in the FIL section (644).

도 100 및 도 101은 자동 인식 발견 메커니즘(Automatic Perception Discovery Mechanism, APDM)(467)을 보여준다. 관찰자(646)은 디지털 또는 사람의 관찰자를 대표하면서 다수의 인식을 통해 동일한 객체를 인식 할 수 있다. 관찰 가능한 객체(Observable Object)는 잠재적인 사이버 보안 사례 시나리오를 설명하기 위해 사용된다. 인식의 관점(Angle of Perception)(647)은 관찰 가능한 객체가 2 차원으로 표현 될 때 관찰 가능한 객체에 대한 제한된 정보 범위를 산출한다. 인식의 관점(Angle of Perception) B(648)은 3 차원을 포함하므로 더 많은 정보를 제공한다. 인식의 관점 (Angle of Perception) C(649)의 결과는 독창적인 혼성화 프로세스인 창조성(18)이 현대 병렬 처리 능력에 의해 레버리지되고 있기 때문에 우리의 제한된 사고 능력으로는 알 수 없다. 비판적 사고 알고리즘은 관점 A 및 B의 메트릭을 결합하여 새로운 반복(653)을 형성함으로써 인간의 이해 귀 또는 반복 복잡성 + 효능 및 CPU 시간 및 힘 사이의 기하 급수적(안정되지 않음) 관계를 넘어서는 더 많은 형태의 인식을 생성할 수 있다. 인식의 관점(Angle of Perceptions)(650)은 범위, 타입, 강도 및 일관성(651)을 포함하되 이에 국한되지 않는 여러 척도로 구성되어 있다. 이러한 지표는 전반적인 인식을 구성하는 인식의 여러 측면을 정의한다. 위의 예보다 범위가 더 복잡해질 수 있으므로 창조성 모듈에서 생성된 다양한 인식의 변형이 있을 수 있다. 인식 가중치(652)는 인식 관찰자 에뮬레이터(POE)(475)에 의해 인식이 얼마나 많은 상대적 영향을 받았는지를 정의한다. 두 가지 입력 인식의 이 가중치는 새로운 반복 인식(653)의 가중치를 정의하는 동안 고려된다. 이 새로운 반복 인식(653)은 이전 세대의 인식들: A + B 으로부터 영향을 받은 혼성화된 메트릭들을 포함한다. 이러한 새로운 인식의 관점은 잠재적으로 보안 소프트웨어가 은밀한 공격을 탐지하는 생산적인 새로운 이점을 제공한다. 인식들의 세대는 시행 착오와 지능적인 선택의 조합을 통해 혼성화를 위해 선택된다. 특히 새로 반복된 인식이 보안 문제에 대한 통찰력을 제공하는데 쓸모가 없다는 것을 증명하면 사용을 위해 강조 될 수는 있지만 유용한 통찰력을 제공할 수 있다면 결코 완전히 알려지지 않으므로 지워지지는 않는다. 따라서 컴퓨팅 전력 자원과 보안 인텔리전스의 교환은 경험이 풍부하다.Figures 100 and 101 illustrate the Automatic Perception Discovery Mechanism (APDM) (467). The observer (646) can recognize the same object through multiple perceptions, representing a digital or human observer. The Observable Object is used to describe a potential cybersecurity case scenario. The Angle of Perception (647) yields a limited range of information about the observable object when the observable object is represented in two dimensions. The Angle of Perception B (648) provides more information as it includes three dimensions. The results of the Angle of Perception C (649) are beyond our limited thinking ability because the unique hybridization process, creativity (18), is leveraged by modern parallel processing capabilities. The critical thinking algorithm can generate more forms of perceptions beyond the exponential (non-stable) relationship between human understanding or iteration complexity + efficacy and CPU time and power by combining metrics from perspectives A and B to form a new iteration (653). The Angle of Perceptions (650) consists of several metrics including but not limited to: Range, Type, Intensity, and Coherence (651). These metrics define several aspects of the perception that make up the overall perception. Since the range can be more complex than the above example, there can be many variations of the perceptions generated by the creativity module. The Perception Weights (652) define how much the perceptions were influenced relative to each other by the Perception Observer Emulator (POE) (475). These weights of the two input perceptions are taken into account while defining the weights of the new iteration perception (653). This new iteration perception (653) contains hybrid metrics influenced by the previous generations of perceptions: A + B. This new perspective of perception potentially provides a productive new advantage for security software to detect covert attacks. The generation of perceptions is selected for hybridization through a combination of trial and error and intelligent selection. In particular, if a newly iterated perception proves useless in providing insight into a security problem, it can be highlighted for use, but if it can provide useful insight, it is never completely unknown and therefore never erased. Thus, the exchange of computing power resources and security intelligence is an experience-rich one.

도 102는 선택된 패턴 매칭 알고리즘(SPMA)(526)으로부터 메타 데이터 로그를 수신하는 모듈인 원시 인식 생산(RP2)(465)을 도시한다. 이러한 로그들은 파싱되고 이러한 알고리즘의 인식을 나타내는 지각이 형성된다. 인식은 인식 복합체 형식(Perception Complex Format, PCF)에 저장되며, 인식 관찰자 에뮬레이터(Perception Observer Emulator, POE)에 의해 에뮬레이트된다. 시스템 메타 데이터 분리(SMS)(487)는 보안 응답/ 변수 쌍들(654)의 출력을 제공하며, 이는 적절한 정정 조치가 트리거 변수(예를 들어, 주체, 위치, 행동 분석 등)와 결합 될 때 보안 원인- 결과 관계를 확립한다. 비교 가능한 가변 형식(547)은 비 그래픽 용어들(655)로 표현된다. 이러한 인식 수집물들 각각은 CVF(547)를 형성하기 위해 특정한 가중 영향을 갖는 다양한 인식을 가지고 있다.FIG. 102 illustrates a raw perception production (RP2) (465) module that receives metadata logs from a selected pattern matching algorithm (SPMA) (526). These logs are parsed and a perception is formed representing the perception of this algorithm. The perception is stored in a Perception Complex Format (PCF) and is emulated by a Perception Observer Emulator (POE). The System Metadata Separator (SMS) (487) provides output of security response/variable pairs (654), which establish security cause-effect relationships when appropriate corrective actions are combined with trigger variables (e.g., subject, location, behavioral analysis, etc.). The comparable variable formats (547) are expressed in non-graphical terms (655). Each of these perception collections has different perceptions with specific weighting effects to form the CVF (547).

도 103은 비교 가능한 가변 형식 생성기(CVFG; Comparable Variable Format Generator)(491)의 논리 흐름을 도시한다. CVFG에 대한 입력은 생성된 CVF(547)의 노드 구성에 의해 표시되어야 하는 데이터를 나타내는 임의의 데이터 모음인 데이터 배치(658)이다. 659 단계는 데이터 배치(658)에 의해 정의된 각각의 개별 유닛을 통해 순차적인 전진을 수행한다. 데이터 유닛은 660 단계에서 최종 CVF(547)에 의해 참조된 것과 동일한 구성의 정보를 갖는 노드 포맷으로 변환된다. 노드는 CVF의 구성 요소이며 다른 CVF와 비교하여 효율적이고 정확한 비교 평가를 수행 할 수 있다. CVF는 비교 최적화 특성(노드)을 제외하고는 되돌릴 수 없는 MD5 해시 합과 같다. 그런 다음, 변환 된 노드는 665 단계에서 그 존재를 검사 할 때 일시적으로 노드 홀드 아웃(661)에 저장된다. 이들이 발견되지 않으면 662 단계에서 생성되고 663 단계 에서 발생 및 사용과 같은 통계 정보로 업데이트된다. 664 단계에서 홀드 아웃(661)이 있는 모든 노드가 조립되어 CVF(547)와 같은 모듈 출력으로 푸시된다. 생성기가 실행 된 후 홀드 아웃(661)이 비어 있으면 널(null) 결과가 반환된다(618).Figure 103 illustrates the logic flow of a Comparable Variable Format Generator (CVFG) (491). The input to the CVFG is a data batch (658), which is an arbitrary collection of data representing data to be represented by the node configuration of the generated CVF (547). Step 659 performs a sequential forward walk through each individual unit defined by the data batch (658). The data unit is converted into a node format having the same configuration information as referenced by the final CVF (547) at step 660. A node is a component of a CVF and can perform efficient and accurate comparative evaluations compared to other CVFs. A CVF is like an irreversible MD5 hash sum except for the comparison optimization property (node). The converted node is then temporarily stored in a node holdout (661) when its presence is checked at step 665. If it is not found, it is generated at step 662 and updated with statistical information such as occurrence and usage at step 663. At step 664, all nodes with holdouts (661) are assembled and pushed to module outputs such as CVF (547). If the holdouts (661) are empty after the generator is executed, a null result is returned (618).

도 104에서, 노드 비교 알고리즘(NCA)(667)은 미처리 CVF(547)로부터 판독된 2 개의 노드 구성(666, 668)을 비교하고 있다. CVF의 각 노드는 속성의 크기를 나타낸다. 유사성 비교는 개별 노드를 기준으로 수행되며 집계 분산이 계산된다. 이것은 효율적으로 계산된 정확한 비교를 보장한다. 노드 별 또는 집계 가중이든 상관없이 더 작은 분산 번호는 더 가까운 일치를 나타낸다. 발생할 수 있는 비교 모드에는 부분적 매치 모드(PMM)와 전체 매치 모드(WMM)의 두 가지 모드가 있다. 하나의 CVF에 활성 노드가 있고 비교 후보에서 발견되지 않는 경우(노드가 휴면 상태인 경우) PMM의 경우 비교에 불이익을 주지 않는다. 모드 적용 가능성 예: 나무 A와 숲 A를 비교할 때 나무 A는 숲 A 내에 존재하는 가장 가까운 일치 나무 B를 찾는다. WMM을 사용한 CVF에 활성 노드가 있고 해당 비교 후보에서 찾을 수 없는 경우(노드 휴면 상태), 비교가 벌어진다. 모드 적용 가능성 예: 나무 A와 숲 A를 비교할 때 나무 A와 숲 A가 직접 비교되고 중첩 및 구조적 유사성이 큰 차이가 있으므로 일치하는 항목이 없다.In Fig. 104, the node comparison algorithm (NCA) (667) compares two node configurations (666, 668) read from the raw CVF (547). Each node in the CVF represents the size of an attribute. The similarity comparison is performed on a per-node basis and the aggregate variance is computed. This ensures an efficient and accurate comparison. A smaller variance number, whether node-wise or aggregate-weighted, indicates a closer match. There are two possible comparison modes: partial match mode (PMM) and full match mode (WMM). In the case of a CVF having an active node and not found in the comparison candidate (if the node is dormant), the PMM does not penalize the comparison. Example of mode applicability: When comparing tree A and forest A, tree A finds the closest matching tree B within forest A. If the CVF using WMM has an active node and not found in the comparison candidate (if the node is dormant), the comparison is made. Example of mode applicability: When comparing tree A to forest A, there are no matches because tree A and forest A are directly compared and have large overlap and structural similarity.

도 105 및 도 106은 입력 시스템 메타 데이터(484)를 의미 있는 보안 원인-결과 관계로 분리하는 시스템 메타 데이터 분리(SMS)(487)를 도시한다. MCM(488)의 출력으로서, 로그들의 프로그래밍 요소는 672 단계에서 개별적으로 검색된다. 673 단계에서 MCM의 개별 카테고리가 보안 응답과 보안 변수(보안 로그들) 사이의 관계의 보다 상세한 구성을 얻는 데 사용된다. 그런 분류 (674)는 단계 669, 670 및 671에서 동화된다. 주체 스캔 / 동화(669)를 통해 보안 상황의 주제/ 의심 항목은 범주화 모듈의 사전 분류 컨테이너 및 원시 분석을 사용하여 시스템 메타 데이터에서 추출된다. 주체는 보안 응답/ 변수 관계를 유도하기 위한 주요 참조 포인트로 사용된다. 주체는 사람, 컴퓨터, 실행 가능한 코드, 네트워크 또는 기업의 범위가 될 수 있다. 그러한 파싱된 주체(682)는 주체 저장(679)에 저장된다. 위험 요소 스캔/ 동화(670)를 사용하면 보안 범위의 위험 요소가 사전 분류 컨테이너와 카테고리 모듈의 원시 분석을 사용하여 시스템 메타 데이터에서 추출된다. 위험은 그러한 위험을 나타내거나 노출되는 타겟 주체와 관련된다. 위험은 잠재적인 공격 지점, 공격 유형의 취약성 등으로 정의 될 수 있다. 이러한 위험은 주체 인덱스(683)에서 관련 주체에 대한 연관성을 통해 위험 저장(680)에 저장된다. 응답 스캔/ 동화(671)를 사용하여, 입력 알고리즘에 의해 만들어진 보안 상황의 응답은 카테고리화 모듈로부터 사전 카테고리 컨테이너 및 원시 분석을 사용하여 시스템 메타 데이터로부터 추출된다. 응답은 그러한 응답을 받을 자격이 있다고 주장되는 보안 주체와 관련이 있다. 응답은 승인/ 차단/ 플래그/ 격리/ 난독화/ 신호 모방/ 응징 등의 범위를 가질 수 있다. 이러한 응답은 주체 인덱스(683)에서 관련 주체에 대한 연관성과 함께 응답 저장(681)에 저장된다. 그런 다음 저장된 정보는 포퓰레이터 로직(PL; Populator Logic)(483)을 포함한다.Figures 105 and 106 illustrate the System Metadata Separation (SMS) (487) that separates the input system metadata (484) into meaningful security cause-effect relationships. As an output of the MCM (488), the programming elements of the logs are individually retrieved in step 672. In step 673, the individual categories of the MCM are used to obtain a more detailed configuration of the relationships between security responses and security variables (security logs). Such classifications (674) are assimilated in steps 669, 670 and 671. Through the subject scan/assimilation (669), the subjects/suspicious items of the security situation are extracted from the system metadata using the pre-categorization containers and raw analysis of the categorization module. The subjects are used as the primary reference points for deriving the security response/variable relationships. The subjects can be people, computers, executable code, networks or scopes of an enterprise. Such parsed subjects (682) are stored in the subject store (679). Using the risk element scan/assimilation (670), the risk elements of the security scope are extracted from the system metadata using the pre-categorization container and the raw analysis of the category module. The risk is associated with the target entity that exhibits or is exposed to such risk. The risk can be defined as a potential attack point, a vulnerability of an attack type, etc. These risks are stored in the risk store (680) through their association to the relevant entity in the subject index (683). Using the response scan/assimilation (671), the response of the security situation generated by the input algorithm is extracted from the system metadata using the pre-categorization container and the raw analysis from the categorization module. The response is associated with the security entity that is claimed to be entitled to such response. The response can range from accept/block/flag/quarantine/obfuscate/symbolize/retaliate, etc. These responses are stored in the response store (681) along with their association to the relevant entity in the subject index (683). The stored information then includes the populator logic (PL; Populator Logic) (483).

도 107 및 도 108은 메타 데이터 분류 모듈(MCM)(488)을 도시한다. 형식 분리(Format Separation)(688)에서, 메타 데이터는 인식된 형식의 규칙 및 구문에 따라 분리되고 카테고리화 된다. 이러한 메타 데이터는 인식 가능한 형식에 따라 조립된 것이어야 하며, 그렇지 않으면 처리를 위해 메타 데이터가 거부된다. 로컬 형식 규칙 및 구문(689)에는 미리 포맷된 메타 데이터 스트림을 MCM 모듈이 인식 할 수 있도록 하는 정의가 포함되어 있다. 로컬은 메타 데이터의 관련성과 존재로 인해 이전에 선택된 '형식'을 의미한다. 디버깅 추적(485)은 사용되는 변수, 함수, 방법 및 계층과 각각의 입력 및 출력 변수 타입/ 내용을 제공하는 코딩 레벨 추적이다. 전체 함수 호출 체인(다른 함수를 호출하는 함수)이 제공된다. 알고리즘 추적(486)은 알고리즘 분석과 결합된 보안 데이터를 제공하는 소프트웨어 레벨 추적이다. 결과 보안 결정(승인 / 차단)은 해당 결정(정당성)에 도달 한 경로와 각 요소가 보안 결정을 내리는 데 기여한 적절한 가중치와 함께 제공된다. 이러한 알고리즘 추적(486)은 686 단계에서 이들 보안 결정 정당화 각각을 통해 MCM의 사이클링 모드를 유도한다. 그러한 정당화는 컴퓨터 로그 구문에서(사람이 직접 작성한 것과는 대조적으로) 특정 보안 응답이 작성된 방법 및 이유를 정의한다. 인식 가능한 형식(687)은 미리 정의되고 CMTP와 호환되는 표준 구문 형식이다. 따라서, 입력 시스템 메타 데이터 (484)로부터의 포맷 선언이 인식되지 않으면, 모듈러 널(null) 결과가 리턴된다(618). SPMA(526)의 프로s그래머는 CTMP에서 인식할 수 있는 표준 형식으로 메타 데이터(484)를 코딩해야 한다. 이러한 형식은 JSON 및 XML 등과 같이 독점적일 필요가 없으며 CTMP에만 독점적일 필요는 없다. 가변적 홀드 아웃(Variable Holdout)(684)은 처리 변수가 하나의 범주에서(674)로 유지되기 때문에 최종 통합 출력으로 모두(685) 동시에 제출될 수 있다. 675 단계는 디버깅 추적(485) 및 알고리즘 추적(486)인 입력 정보의 2 개의 주요 지점들 사이의 비교 검사를 수행한다. 이러한 비교는 코딩 수준에서의 정당화의 발생을 추적하여 그러한 보안 정당성이 발생한 이유와 MCM에 대한 결과가 될만한 가치가 있는지를 더 잘 이해한다. 이 단계는 CTMP의 잠재적 비판을 전체적으로 검증하기 위해 모든 보안 정당화에 대한 추론을 보장하고 코딩 수준에서도 결정을 잘 이해할 수 있도록 사전 예방 조치이다. 유사하게 위험 증거는 단계 676에서 추적 데이터 디버깅으로 확인된다. 677 단계에서 SPMA에 의해 호출된 모든 기능에 대해 메타 데이터가 검사된 후 사용 가능한 기능적 목적 및 정당성이 인식 가능한 형식(687)의 사양에 따라 정의되었는지 확인하기 위해 해당 기능을 검사한다.Figures 107 and 108 illustrate the Metadata Classification Module (MCM) (488). In Format Separation (688), metadata is separated and categorized according to recognized format rules and syntax. Such metadata must be assembled according to a recognizable format, otherwise the metadata is rejected for processing. Local Format Rules and Syntax (689) contain definitions that enable the MCM module to recognize pre-formatted metadata streams. Local means a 'format' that has been previously selected due to the relevance and presence of metadata. Debugging Trace (485) is a coding level trace that provides the variables, functions, methods and hierarchies used and the input and output variable types/contents of each. The entire function call chain (functions calling other functions) is provided. Algorithm Trace (486) is a software level trace that provides security data combined with algorithmic analysis. The resulting security decision (approval/block) is provided along with the path taken to reach that decision (justification) and the appropriate weighting of each element that contributed to the security decision. This algorithmic tracing (486) induces the cycling mode of the MCM through each of these security decision justifications at step 686. Such justifications define how and why a particular security response was written in computer log syntax (as opposed to written by a human). The recognizable format (687) is a standard syntax format that is predefined and compatible with CMTP. Thus, if a format declaration from the input system metadata (484) is not recognized, a modular null result is returned (618). The programmer of the SPMA (526) must code the metadata (484) in a standard format that is recognizable by the CTMP. This format need not be proprietary, such as JSON or XML, and need not be exclusive to the CTMP. The Variable Holdout (684) can be submitted simultaneously to the final consolidated output all (685) since the processing variables are kept in one category (674). Step 675 performs a comparative check between two key points of input information, the debugging trace (485) and the algorithm trace (486). This comparison traces the occurrence of justifications at the coding level to better understand why such security justifications occurred and whether they are worth the consequences for the MCM. This step is a precautionary measure to ensure that the reasoning behind all security justifications is fully validated against potential criticisms of the CTMP and that the decisions are well understood even at the coding level. Similarly, risk evidence is identified by debugging the trace data at step 676. At step 677, the metadata for all functions called by the SPMA are inspected to ensure that the available functional purpose and justifications are defined according to a specification in a recognizable format (687).

도 109는 선정된 패턴 매칭 알고리즘(SPMA)(526) 보안 응답으로부터의 변수들을 그러한 알고리즘의 지능으로부터의 '구제'인식들로 리버스 엔지니어링하는 메트릭 처리(MP)(489)를 도시한다. 보안 응답 X(690)는 SPMA(예 : 승인/ 차단/ 난독화)에 의해 선택된 최종 보안 응답에 기여하는 일련의 요소를 나타낸다. 모양 각각은 선택된 패턴 매칭 알고리즘(SPMA)의 보안 응답을 나타낸다. 초기 가중치는 SPMA에 의해 결정되므로 지능이 활용되고 있다. 그런 결정은 대량 인식에서 모델 인식으로 참조된다. 인식 추론(Perception Deduction: PD)(490)은 보안 응답의 일부와 해당 시스템 메타 데이터를 사용하여 보안 응답의 원래 인식을 복제한다. 입체화 시리즈들(699)의 인식의 해석은 PD가 SPMA의 보안 응답을 취하는 방법을 표시하고 SPMA가 원래 사용한 지능형 '디지털 인식'의 전체 범위를 재구성하기 위해 관련 입력 시스템 메타 데이터(484)를 연관시킨다. 이것은 CTMP에게 입력 알고리즘에 대한 깊은 이해를 제공하며, 여러 알고리즘의 지능을 재사용하고 상호 참조 할 수 있으므로 인공 지능의 획기적인 중요한 단계가 구현된다. 이러한 모양은 SPMA에 의해 구현된 복잡한 규칙, 동작 및 상관 관계를 상징한다. 모양 채우기(697), 다수 쌓기(698) 및 입체화(699)는 지능형 알고리즘의 '관점'을 포착하는 디지털 인식이다. 입체화(699) 유형의 인식은 3 차원 모양을 나타내며 회사 직원의 내부 전자 메일을 해석하고 회사 민감한 정보의 보안 위반을 탐지 및/또는 예측하려는 언어 학습 알고리즘을 상징적으로 나타낼 수 있다. 입체화 유형은 약간의 변화가 있는 단일 지능형 알고리즘일 수 있지만(즉, 변형694C는 원형이고 695C/ 696C는 직사각형이며, 지능형 알고리즘의 미묘한 차이를 나타냄) 액면가(face value)에서 그러한 알고리즘에 의해 만들어진 것처럼 보이지 않을 수 있는 여러 초기 보안 응답이 있을 수 있다. 액면가 694A는 696A보다 692A와 공통점이 더 많다. 그러나 이 카운터 직관에도 불구하고, 692A는 입체화(699)와 완전히 다른 알고리즘 모양 채우기(697)에 의해 수행된 보안 응답이다. 인식 695C와 696C는 동일하지만 보안 응답 695A와 696A는 미묘한 차이가 있다. 보안 응답 695A는 더 어둡고 측면 695B의 차원 인식을 나타내지만 696A는 정면 696B에서와 똑같은 인식을 나타낸다. 이러한 차이점은 다양한 보안 위협/ 의심에 대응하는 다양한 보안 대응을 리버스 엔지니어링하고 동일한 지능형 알고리즘으로 파악할 수 있음을 보여준다. 입체화(699) 인식의 3 가지 경우(두 개는 동일함)는 이후 인식의 관점 B(702)로서 CTMP에서 내부적으로 참조되는 단일 단위로 결합된다. 이 관점의 인식이 CTMP 내에서 미치는 영향의 가중치는 보안 응답 694A, 695A 및 696A에 대한 영향의 초기 가중치에 따라 계산된다. 다수 쌓음에서 인식(698)을 사용하면 입체화(699)에 따라 3 차원 깊이를 받는 대신 보안 응답(693A)이 여러 수량 집합의 일부인 것으로 나타난다. 이것은 외부 침입을 피하기 위해 신생 회사 직원에 대한 보안 프로파일을 작성하는 프로파일링 알고리즘에 대한 상징적인 표현 일 수 있다. CTMP는 처음에는 보안 응답(693A)으로 표시되는 단일 보안 프로필만 수신하지만 사실은 (MP(489)가 리버스 엔지니어링을 수행 한 후) 인식 인식 다수 쌓음(698)으로 알려진 상호 참조 프로필 모음의 일부이다. 이러한 이러한 인식은 CTMP 내에서 인식의 관점 A(701)로 참조할 수 있다. 보안 응답 691A 및 692A의 경우 보안 응답은 상징적으로 불완전한 모양으로 표시되는 MP(489)에 제공된다. PD(490)는 입력 시스템 메타 데이터를 활용하여 이 보안 응답이 발생한 지능형 알고리즘이 예상 보안 변수가 없음을 찾고 있는지 확인한다. 예를 들어, 이것은 의심스러운 행동의 존재를 알리는 것과는 대조적으로 규칙적인/ 예상 된 행동의 부재를 알리는 알고리즘 일 수 있다. 이것은 그가 평소와 같이 이메일을 보내지 않는 회사 직원 일 수 있다. 이것은 갑작스런 습관의 변화 또는 실제 직원과 같은 이메일에 익숙하지 않은 악의적 인 배우가 이 직원의 이메일 계정을 해킹했다는 표시 일 수 있다. 이러한 알고리즘은 영향의 적절한 가중치를 갖는 인식의 관점 C (700)로서 CTMP 내에서 참조 될 수 있는 디지털 인식 모양 채우기(697)로 리버스 엔지니어링된다.FIG. 109 illustrates a metric processing (MP) (489) that reverse engineers variables from a selected pattern matching algorithm (SPMA) (526) security response into 'relief' perceptions from the intelligence of such an algorithm. The security response X (690) represents a series of elements that contribute to the final security response selected by the SPMA (e.g., authorize/block/obfuscate). Each shape represents a security response of the selected pattern matching algorithm (SPMA). The initial weights are determined by the SPMA, so intelligence is leveraged. Such decisions are referred to as model perception in mass perception. The perception deduction (PD) (490) replicates the original perception of the security response using a portion of the security response and the corresponding system metadata. The interpretation of the perception of the stereoscopic series (699) indicates how the PD takes the SPMA's security response and correlates the relevant input system metadata (484) to reconstruct the full range of intelligent 'digital perception' that the SPMA originally used. This provides CTMP with a deep understanding of the input algorithm, and allows the intelligence of multiple algorithms to be reused and cross-referenced, thus implementing a groundbreaking step in artificial intelligence. These shapes symbolize the complex rules, behaviors and correlations implemented by SPMA. Shape filling (697), multi-stack (698) and dimensionalization (699) are digital perceptions that capture the 'perspective' of the intelligent algorithm. The dimensionalization (699) type of perception represents a three-dimensional shape and could symbolically represent a language learning algorithm that interprets internal emails of company employees and attempts to detect and/or predict security breaches of company sensitive information. The dimensionalization type may be a single intelligent algorithm with slight variations (i.e. variant 694C is circular and 695C/696C are rectangular, representing subtle differences in the intelligent algorithm), but there may be multiple initial security responses that may not appear to be generated by such an algorithm at face value. At face value 694A has more in common with 692A than with 696A. However, despite this counter-intuition, 692A is a security response performed by a completely different algorithm shape filling (697) than stereoscopic (699). Perceptions 695C and 696C are identical, but security responses 695A and 696A have subtle differences. Security response 695A is darker and shows dimensional perception of side 695B, while 696A shows the same perception as frontal 696B. These differences demonstrate that different security responses to different security threats/suspicions can be reverse engineered and captured by the same intelligent algorithm. The three cases of stereoscopic (699) perception (two of which are identical) are then combined into a single unit referenced internally in the CTMP as the perception perspective B (702). The weighting of the impact of the perception of this perspective within the CTMP is computed based on the initial weighting of the impacts for security responses 694A, 695A and 696A. In the multi-stack, instead of receiving a three-dimensional depth as in the stereoscopic (699) representation, the security response (693A) is shown as part of a set of quantities. This could be a symbolic representation of a profiling algorithm that builds a security profile for a startup employee to avoid external intrusions. The CTMP initially receives only a single security profile, represented as the security response (693A), but in fact (after reverse engineering by the MP (489)) is part of a collection of cross-referenced profiles known as the multi-stack recognition (698). This recognition can be referenced within the CTMP as the perception perspective A (701). For the security responses 691A and 692A, the security response is provided to the MP (489) symbolically represented as an incomplete shape. The PD (490) utilizes the input system metadata to determine whether the intelligent algorithm that generated this security response is looking for the absence of expected security variables. For example, this could be an algorithm that signals the absence of regular/expected behavior, as opposed to the presence of suspicious behavior. This could be a company employee who does not send emails as usual. This could be a sudden change in habits or an indication that a malicious actor who is not familiar with emails like a real employee has hacked into this employee's email account. These algorithms are reverse engineered into a digital recognition shape filler (697) that can be referenced within CTMP as a perception perspective C (700) with appropriate weighting of influence.

도 110 및 도 111은 메트릭 처리(MP)(489)에 의해 주로 사용되는 인식 추론(Perception Deduction: PD)(490)의 내부 설계를 도시한다. 보안 응답 X는 정당화/ 추론 계산(704)에 입력으로 전달된다. 이 모듈은 의도 DB(705)에 저장된 입력/출력 축소(Input/ Output Reduction) 모듈(706)의 의도 공급을 이용함으로써 SPMA(526)의 보안 응답의 정당성을 결정한다. 이러한 모듈 IOR은 함수의 입력/ 출력 관계를 해석하여 함수의 목적에 대한 정당성 및 의도를 결정한다. IOR 모듈은 메타 데이터에 나열된 다양한 함수 호출의 분리된 입력 및 출력을 사용한다. 이러한 메타 데이터 분리는 메타 데이터 카테고리화 모듈 (MCM)(488)에 의해 수행되고, 출력 카테고리는 콜렉션(672 및 674)으로서 발생한다. JRC(704)에서, 의도 DB(705)에 저장된 기능 의도는 입력(690)으로서 제공된 보안 응답에 대해 체크된다. 기능 의도가 SPMA의 보안 결정을 뒷받침하는 경우 메트릭 변화에 대한 정당화(JMC; Justification to Metric Conversion)(703)에 대한 타당한 근거로 제출된다. JMC 모듈에서 검증된 보안 응답 정당성은 인식의 특성을 정의하는 메트릭으로 변환된다. 메트릭은 인간의 감각과 유사하며 보안 응답 정당성은 이러한 의미를 사용하는 정당성을 나타낸다. 사람이 길을 건너면 시력과 소리에 대한 그들의 감각(또는 측정 기준)이 높아지고 냄새와 촉감에 대한 감각은 휴면 한다. 각각의 강도 크기를 가진이 감각 모음은 '길 건너기'인식을 나타낸다. 이 비유에 대한 정당화는 '도로의 차량은 위험할 수 있으며 볼 수 있고 들을 수 있음' 이다. 따라서 인식 구성은 합리적으로 정당화되며, 예로서 인식의 관점 C(543)가 형성된다. I/ O (입력/ 출력) 관계는 기능 입력의 단일 세트와 이러한 기능에 의해 제공된 해당 출력으로 정의된다. IOR(706)은 먼저 함수의 I/ O 관계 및 함수 '의도'가 내부 데이터베이스를 참조하여 이전에 분석되었는지를 검사한다. 정보가 데이터베이스에서 발견되면, 그것은 708 단계에서 현재의 I/ O 데이터를 보완하기 위해 사용된다. 단계 714에서 충분한 수준의 의미 있는 분석을 달성할 수 있을 만큼 충분히 포화 된 경우 보충된(해당되는 경우) I / O 데이터가 검사된다. 양(amount)은 기술 측면에서 정량화되며 최소 수준은 기존 CTMP 정책에 의해 정의된다. 분석할 I/ O 정보의 양이 불충분하다면, 단계 711에서 특정 기능 분석이 취소되고 IOR 모듈 (706)은 다음 이용 가능한 기능으로 진행한다. 분석할 충분한 양의 정보가 있을 때, I/ O 관계는 유사성(709)에 따라 분류된다. 예를 들어 하나의 I/ O 관계가 발견되면 하나의 통화를 다른 통화 (예: USD에서 EUR)로 변환하고 또 다른 I/ O 관계가 발견되어 하나의 단위가 다른 단위(즉, 파운드에서 킬로그램)로 변환된다. 두 I/ O 관계는 트리거 개념이 카테고리화 인덱스와 연관되어 있기 때문에 데이터 변환에 속하는 것으로 분류된다. 예를 들어, 그러한 인덱스는 USD, EUR 및 파운드를 참조할 수 있다. 킬로그램은 데이터 변환 카테고리를 참조한다. 따라서 일단 I/ O 관계에 있는 유닛이 발견되면 IOR(706)은 해당 유닛을 적절히 분류할 수 있다. 따라서 함수의 의도는 통화 및 단위 변환 함수로 의심된다. 이용 가능한 모든 I/ O 관계를 카테고리화할 때, 카테고리는 단계 710에서 포함하는 I/ O 관계 가중치의 양에 따라 등급이 매겨지며 가장 인기있는 것이 먼저 나타난다. 단계 715에서, I/ O 데이터의 카테고리는 기능의 의도의 패턴을 자신 있게 표시할 수 있는지 검사된다. 이는 함수가 수행하는 입력- 출력 변환의 일관성을 검사하여 수행된다. 특정 범주의 정보가 지속적이고 뚜렷한 경우 (통화를 하나의 범주로 변환하고 단위를 두 번째 범주로 변환하는 경우)이 범주는 기능의 '의도'로 표시된다. 따라서 이 기능은 통화와 단위를 변환 할 의사가 있다고 설명 할 것이다. IOR(706)은 기능을 의도된 용도로 축소함으로써 CTMP가 코드에 존재하는 기능의 실제 목적을 확인할 수 있고 그러한 코드의 실행을 통해 손상이 발생하기 전에 선제 적으로 악성 행위를 지능적으로 검사 할 수 있으므로 보안 분석에 중요한 영향을 미친다. '의도'가 IOR(706)에 의해 충분한 정도의 확신으로 잘 이해 되었다면 모듈 출력(712)으로서 제출된다. '의도' 카테고리가 서로 확고하게 확증되지 않고 함수의 '의도'가 자신 있게 설정되지 않은 경우 함수의 '의도'는 알 수 없음으로 선언되고 IOR(706)은 711 단계에서 분석을 위해 다음 사용 가능한 함수로 진행한다.Figures 110 and 111 illustrate the internal design of the Perception Deduction (PD) (490) primarily used by the Metric Processing (MP) (489). The security response X is passed as input to the Justification/Inference Computation (704). This module determines the justification of the security response of the SPMA (526) by utilizing the intent feed of the Input/Output Reduction module (706) stored in the Intent DB (705). This module IOR interprets the input/output relationship of the function to determine the justification and intent of the purpose of the function. The IOR module uses the separated inputs and outputs of the various function calls listed in the metadata. This metadata separation is performed by the Metadata Categorization Module (MCM) (488), and the output categories are generated as collections (672 and 674). In the JRC (704), the function intent stored in the Intent DB (705) is checked against the security response provided as input (690). If the functional intent supports the security decision of SPMA, it is submitted as a valid basis for the Justification to Metric Conversion (JMC) (703). The security response justification verified in the JMC module is converted into a metric that defines the characteristics of the perception. The metric is analogous to human senses, and the security response justification represents the justification for using this meaning. When a person crosses the road, their senses (or metrics) for sight and sound are heightened, and their senses for smell and touch are dormant. This set of senses, each with its own intensity magnitude, represents the perception of 'crossing the road'. The justification for this analogy is 'vehicles on the road can be dangerous and can be seen and heard'. Therefore, the perception configuration is reasonably justified, and as an example, the perspective C (543) of the perception is formed. The I/O (input/output) relationship is defined as a single set of function inputs and the corresponding outputs provided by these functions. The IOR (706) first checks whether the I/O relationship and the function 'intent' of the function have been previously analyzed by referring to the internal database. When information is found in the database, it is used to supplement the current I/O data at step 708. The supplemented (if applicable) I/O data is examined at step 714 if sufficiently saturated to achieve a sufficient level of meaningful analysis. The amount is quantified in technical terms and the minimum level is defined by the existing CTMP policy. If there is insufficient amount of I/O information to analyze, then the specific feature analysis is canceled at step 711 and the IOR module (706) proceeds to the next available feature. When there is sufficient amount of information to analyze, the I/O relationships are classified based on similarity (709). For example, if one I/O relationship is found to convert one currency to another (e.g., USD to EUR) and another I/O relationship is found to convert one unit to another (e.g., pounds to kilograms). Both I/O relationships are classified as belonging to data transformation because the trigger concept is associated with a categorization index. For example, such an index may reference USD, EUR and pounds. Kilograms refer to data conversion categories. Therefore, once a unit in an I/O relationship is found, the IOR (706) can appropriately classify that unit. Therefore, the intent of the function is suspected to be a currency and unit conversion function. When categorizing all available I/O relationships, the categories are ranked by the amount of I/O relationship weight they contain in step 710, with the most popular appearing first. In step 715, the categories of I/O data are tested to see if they can confidently represent the pattern of intent of the function. This is done by testing the consistency of the input-output conversions that the function performs. If the information in a particular category is consistent and distinct (e.g., converting currency to one category and units to a second category), then that category is indicated as the 'intent' of the function. Therefore, the function would be described as having the intent to convert currency and units. The IOR (706) has significant implications for security analysis because it allows the CTMP to determine the true purpose of a function present in the code by reducing the function to its intended use, and can intelligently detect malicious behavior preemptively before the execution of such code can cause damage. If the 'intent' is well understood with sufficient confidence by the IOR (706), it is submitted as module output (712). If the 'intent' categories are not robustly corroborated with each other and the 'intent' of the function is not confidently established, the 'intent' of the function is declared unknown and the IOR (706) proceeds to the next available function for analysis at step 711.

도 112 내지 도 115는 인식 관찰자 에뮬레이터(POE; Perception Observer Emulator)(475)를 표시한다. 이 모듈은 관찰자의 에뮬레이션을 생성하고 관찰자 에뮬레이션의 그러한 변화와 함께 모든 잠재적인 인식 포인트를 테스트/ 비교한다. 입력은 모든 잠재적 인식 포인트와 향상된 데이터 로그들이다. 그 결과는 선택된 인식의 혼합과 함께, 가장 관련성이 높고 가장 중요하며 가장 조심스러운 관찰자에 따라 그러한 강화된 로그의 결과 보안 결정이다. 입력 시스템 메타 데이터(Input System Metadata)(484)는 가변 인식 포맷(CVF)(547)에서 인식을 생성하기 위해 원시 인식 생성(RP2)(465)에 의해 사용되는 초기 입력이다. 저장 검색(SS)(480)을 사용하면 데이터 향상 로그에서 파생된 CVF가 PS(Perception Storage)(478)의 데이터베이스 조회에서 기준으로 사용된다. PS는 가장 일치하는 CVF가있는 데이터베이스에서 사용 가능한 모든 CVF(547)를 제공한다. 관련 인식 구성과 가중치가 참조되어 결과(716)에서 성공적인 일치 이벤트에 사용된다. 유사성 오버랩은 60 % 일치(719) 및 30 % 일치(720)로 언급된다. 이러한 결과는 저장 검색(480)에서 계산된다. 결과(716)로, 일치(719 및 720)가 저장되고, 가중치 계산(718)에서 개별 인식 순위에 대해 계산된다. 이러한 계산은 입력 CVF와 비교하여 데이터베이스 CVF의 전반적인 유사성(또는 일치) 값을 취하여 각 개별 인식 가중치에 해당 값을 곱한다. 이러한 가중치는 이미 메트릭 처리(MP)(489)에 의해 처음 결정된 CVF와 연관되어 저장된다. 순위(717)에서, 인식은 최종 가중치에 따라 정렬된다. 이러한 순위는 보안 상황을 이해하고 따라서 최종 차단(730) 또는 승인(731) 명령 출력을 전달하는데 가장 관련성이 높은(가중치 계산(718)에서 가중치 부여 된) 인식을 사용하는 선택 프로세스의 일부이다. 일단 인식이 순위가 매겨지면, 데이터 향상된 로그들(723)이 인식에 적용되어 차단/ 승인 권고를 생성하는 애플리케이션(729)으로 포워딩된다. 로그들(723)은 원래 보안 사고가 발생한 시스템의 입력 로그들이다. 자기 비판적 지식 밀도(SCKD; Self-Critical Knowledge Density)(492)는 알 수 없는 지식의 예상 상위 범위를 정의하기 위해 로그들에 태그를 붙인다. 즉, 인식을 통해 알 수 없는 데이터 범위로 태그가 지정된 데이터를 고려할 수 있다. 이는 보안 사고가 얼마나 많은지 알지 못하는 정도뿐만 아니라 알 수 있는 정도를 감안할 때 인식이 보안 사고를 보다 정확하게 평가할 수 있음을 의미한다. 데이터 파싱(724)은 원래의 선택된 패턴 매칭 알고리즘(SPMA)(526)에 의해 결정된 바와 같이 최초 승인 또는 차단 결정(725)을 출력하기 위해 데이터 향상된 로그들(723) 및 입력 시스템 메타 데이터(484)의 기본 해석을 수행한다. 따라서, 2 개의 잠재적인 경우 시나리오가 존재하며, SPMA는 시나리오(727)에서 보안 관련 사건을 차단(즉, 프로그램 다운로드를 차단)(730)하거나 시나리오(726)에서 그러한 사고를 승인(731)하도록 선택했다. 이 시점에서 CTMP(22)는 결정을 비판하는(cybersecurity를 포함하되 이에 국한되지 않음) 가장 핵심적이고 중요한 과제를 수행 할 준비가 되었다는 점에서 지금까지 진보 해왔다. 이 비평은 CTMP 내에서 인식에 따라 인식 관찰자 에뮬레이터(POE)에서 한 번, 논리적으로 정의 된 규칙에 따라 규칙 실행(RE)에서 두 번씩 두 가지 방식으로 두 번 발생한다. POE 내에서 SPMA로부터 차단 명령을 수신하면(732)의 대체 로직이 사용된다. SPMA로부터 승인 명령을 수신하면, 733의 중단 로직이 결합된다. 단계 732A에서, 블록(730)의 디폴트 동작이 가정되고 BLOCK-AVG 및 APPROVE-AVG 값(732B)은 사례 시나리오(727)에 저장된 차단/ 승인 신뢰 값의 평균을 구함으로써 계산된다. 단계 732C는 사례 시나리오 (727)의 평균 신뢰도가 사전 정의된 (신뢰도에 의해) 신뢰 마진보다 큰지를 검사한다. 시나리오의 신뢰도가 낮으면 CTMP가 정보/ 이해 부족으로 인해 비판을 보류하고 있음을 나타낸다. 이러한 낮은 신뢰 상황이 발생하면 RMA 피드백 모듈 (728)은 단계 732D에서 참여하여 더 많은 인식이 포함된 보안 상황을 재평가하려고 시도한다. 이와 같이 추가적으로 고려된 인식은 신뢰 마진을 증가시킬 수 있다. 따라서 RMA 피드백은 리소스 관리 정책에 따라 재평가가 허용되는지를 확인하기 위해 RMA(Resource Management and Allocation)(479)와 통신한다. 그러한 재평가가 거부되면 알고리즘은 최고 신뢰도에 도달하고 초기 승인/ 차단 결정을 무효화하여 이 POE 세션에 대해 영구적으로 중단된다. 단계 732E는 RMA 피드백 모듈(728)이 RMA(479)로부터 허가를 수신하여 더 많은 자원을 재 할당하고 따라서 더 많은 인식을 계산에 재 할당하는 조건을 나타낸다. 그러한 조건에서 추가 시나리오(CTMP 비평)는 단계 732F에서 중단되어 사례 시나리오(727)의 새로운 평가가 부가적인 인식(및 그에 따른 컴퓨터 자원 부하 증가)으로 발생하도록 허용한다. 732G 단계에 따르면 승인 평균은 (정책에 따라) 기본 차단 동작(730/732A)를 732H단계의 승인 동작(731)으로 재정의할 수 있을 만큼 충분히 신뢰할 수 있음을 나타낸다. 사례 시나리오(726)에서 발생하는 승인 논리(733)에도 동일한 논리가 적용된다. 단계 733A에서 디폴트 동작은 SPMA(526)에 의해 요청된 대로 승인으로 설정된다. BLOCK-AVG 및 APPROVE-AVG 값 (733B)은 사례 시나리오(726)에 저장된 차단/ 승인 신뢰 값의 평균을 찾아 계산된다. 단계 733C는 사례 시나리오(726)의 평균 신뢰도가 사전 정의된 (신뢰도에 의해) 신뢰 마진보다 큰지를 검사한다. 이러한 낮은 신뢰 상황이 발생하면, RMA 피드백 모듈(728)은 단계 733D에서 참여하여 더 많은 인식이 포함 된 보안 상황을 재평가하려고 시도한다. 단계 733E는 RMA 피드백 모듈(728)이 RMA(479)로부터 허가를 수신하여 더 많은 자원을 재 할당하고 따라서 더 많은 인식을 계산에 재 할당하는 조건을 나타낸다. 이러한 조건에서 추가 시나리오(CTMP 비평)는 단계 733F에서 중단되어 사례 시나리오(726)의 새로운 평가가 추가 인식(및 그에 따른 컴퓨터 자원 부하 증가)으로 발생하도록 허용한다. 733G 단계에서는 정책에 따라 승인 평균이 기본 승인 동작(731/733A)을 733H 단계의 차단 동작(730)으로 재정의하기에 충분한 신뢰도를 나타낸다.Figures 112 through 115 illustrate a Perception Observer Emulator (POE) (475). This module generates an emulation of an observer and tests/compares all potential perception points with such changes in the observer emulation. The inputs are all potential perception points and the enhanced data logs. The output is a security decision resulting from such enhanced logs, along with a mix of selected perceptions, based on the most relevant, most critical and most cautious observers. The Input System Metadata (484) is the initial input used by the Raw Perception Generation (RP2) (465) to generate perceptions in a Variable Perception Format (CVF) (547). Using the Storage Lookup (SS) (480), the CVF derived from the data enhancement logs is used as a reference in a database lookup in the Perception Storage (PS) (478). The PS provides all available CVFs (547) in the database with the most matching CVF. The associated recognition configuration and weights are referenced and used for successful match events in the result (716). The similarity overlap is referred to as 60% match (719) and 30% match (720). These results are computed in the stored search (480). As a result (716), the matches (719 and 720) are stored and, in the weight calculation (718), individual recognition rankings are computed. This calculation takes the overall similarity (or match) value of the database CVFs compared to the input CVF and multiplies each individual recognition weight by that value. These weights are stored in association with the CVFs that were initially determined by the metric processing (MP) (489). In the ranking (717), the recognitions are sorted according to their final weights. This ranking is part of the selection process that uses the most relevant (weighted in the weight calculation (718)) recognition to understand the security situation and thus deliver the final block (730) or approve (731) command output. Once the perception is ranked, the data-enhanced logs (723) are applied to the perception and forwarded to an application (729) that generates a block/approve recommendation. The logs (723) are input logs from the system where the original security incident occurred. Self-Critical Knowledge Density (SCKD) (492) tags the logs to define an expected upper range of unknown knowledge. That is, the perception can consider data tagged with an unknown data range. This means that the perception can more accurately assess security incidents given how much is known as well as how much is unknown. Data parsing (724) performs basic interpretation of the data-enhanced logs (723) and input system metadata (484) to output an initial approve or block decision (725) as determined by the original selected pattern matching algorithm (SPMA) (526). Thus, two potential case scenarios exist, where the SPMA has chosen to block (i.e., block the program download) (730) the security-related incident in scenario (727) or to approve (731) such an incident in scenario (726). At this point, the CTMP (22) has progressed so far that it is ready to perform its most critical and important task of critiquing the decision (including but not limited to cybersecurity). This critique happens twice within the CTMP, once in the Perception Observer Emulator (POE) based on perception and twice in the Rule Execution (RE) based on logically defined rules. Upon receiving a block command from the SPMA within the POE, the fallback logic of (732) is engaged. Upon receiving an approve command from the SPMA, the abort logic of (733) is engaged. In step 732A, the default behavior of block (730) is assumed and the BLOCK-AVG and APPROVE-AVG values (732B) are computed by averaging the block/approve confidence values stored in the case scenario (727). Step 732C checks whether the average confidence of the case scenario (727) is greater than a predefined (by confidence) confidence margin. A low confidence in the scenario indicates that the CTMP is withholding the criticism due to lack of information/understanding. If such a low confidence situation occurs, the RMA feedback module (728) steps in at step 732D to attempt to reevaluate the security situation with more awareness. This additionally considered awareness may increase the confidence margin. Therefore, the RMA feedback communicates with the Resource Management and Allocation (RMA) (479) to determine if the reevaluation is allowed according to the resource management policy. If such a reevaluation is rejected, the algorithm reaches the maximum confidence and invalidates the initial approve/block decision, permanently aborting this POE session. Step 732E indicates a condition under which the RMA feedback module (728) receives permission from the RMA (479) to reallocate more resources and thus more awareness to compute. Under such a condition, the additional scenario (CTMP critique) is stopped at step 732F, allowing a new evaluation of the case scenario (727) to occur with additional awareness (and thus increased computational load). Step 732G indicates that the approval average is sufficiently reliable to override the default blocking action (730/732A) with the approval action (731) of step 732H (depending on the policy). The same logic applies to the approval logic (733) occurring in the case scenario (726). In step 733A the default action is set to approve as requested by the SPMA (526). The BLOCK-AVG and APPROVE-AVG values (733B) are computed by finding the average of the block/approve confidence values stored in the case scenario (726). Step 733C checks whether the average confidence of the case scenario (726) is greater than a predefined (by confidence) confidence margin. If such a low confidence situation occurs, the RMA feedback module (728) steps in at step 733D to attempt to re-evaluate the security situation with more awareness. Step 733E indicates a condition under which the RMA feedback module (728) receives permission from the RMA (479) to reallocate more resources and thus more awareness to the computation. Under this condition, the additional scenario (CTMP critique) is stopped at step 733F to allow a new evaluation of the case scenario (726) to occur with additional awareness (and thus increased computational resource load). Step 733G indicates a sufficient confidence level for the approval average to override the default approval action (731/733A) with a blocking action (730) in step 733H, as per the policy.

도 116 및 도 117은 인식의 현재 알려진 관점으로부터 연관될 수 있는 인식 데이터의 관점을 유도하는 함축적 파생(ID)(477)를 보여준다. 적용된 인식의 관점(Applied Angles of Perception)(470)은 CTMP 스토리지 시스템에 저장된 알려진 인식의 범위이다. 이러한 인식들(470)은 SPMA(526)에 의해 적용되고 사용되었고, 인식 모음(734)으로서 수집되어 메트릭 조합(493)으로 전송된다. 이 모듈(493)은 인식의 관점(734) 형식을 함축적 파생(ID)(477)에 의해 인식된 형식인 메트릭의 카테고리로 변환한다. 메트릭 복잡성(736)에서 원의 외부 경계는 개별 메트릭에 관한 알려진 지식의 최고점을 나타낸다. 따라서 원의 바깥 쪽 가장자리는 더 많은 메트릭 복잡성을 나타내지만 센터는 덜 복잡한 메트릭을 나타낸다. 중앙 연한 회색은 인식의 적용 관점의 현재 배치의 메트릭 조합을 나타내며, 바깥 쪽 진회색은 일반적으로 시스템에 저장되고 알려진 메트릭 복잡성을 나타낸다. ID(477)의 목표는 관련 측정 항목의 복잡성을 증가시켜 인식의 각도를 복잡성과 수량에 곱할 수 있도록 하는 것이다. 현재의 배치로부터의 알려진 메트릭 복잡성은 이미 그러한 상세/ 복잡성을 포함하지 않는 경우 관련된 메트릭 DB(738)에 추가된다. 이러한 방식으로 시스템은 완전히 순환을 이뤘고, 새로 저장된 메트릭 복잡성은 향후 인식 함축적 파생의 관점의 배치에 사용될 수 있다. 이러한 복합 메트릭 구성(736)은 다수의 다양한 인식 관점의 메트릭이 개개의 데이터베이스(738)에 카테고리에 따라 저장되는 메트릭 확장(ME)(495)에 입력으로서 전달된다. 짙은 회색의 표면적은 인식의 적용된 관점의 현재 배치의 전체 범위와 알려진 상한에 따라 남은 범위의 양을 나타낸다. 상한은 각 개별 메트릭 DB의 최고 지식으로 표시된다. 따라서 현재 측정 기준 배치(관점 인식의 현재 배치에 의해 유도된)는 이전에 알려진 세부 사항/ 복잡성으로 향상된다. 향상 및 복잡성 강화시 메트릭은 메트릭 복잡성(737)으로 반환된다. 다이어그램(737)에서 보여는 것처럼, 밝은 회색 영역은 메트릭 범위(739), 일관성(740), 타입(741) 및 강도(742)의 4 개의 섹터 모두에서 커지게 된다. 이는 네 가지 메트릭 분야 모두에서 인식이 더욱 상세하고 복잡해 졌음을 나타낸다. 이 향상된 메트릭 복잡성(737)은 메트릭 전환(494)의 입력으로 전달되며, 메트릭 전환(494)은 개별 및 전체 인식의 관점(735)을 뒤집는다. 따라서 최종 출력은 원래의 입력 인식의 적용 관점(470)의 확장된 버전인 인식의 함축된 관점(471)으로 어셈블된다.Figures 116 and 117 show implicit derivations (IDs) (477) that derive perspectives of perception data that can be associated with currently known perspectives of perception. Applied Angles of Perception (470) are the range of known perceptions stored in the CTMP storage system. These perceptions (470) are applied and used by the SPMA (526) and are collected as a collection of perceptions (734) and transmitted to the metric combination (493). This module (493) transforms the format of the perspectives of perception (734) into categories of metrics that are recognized by the implicit derivations (IDs) (477). In the metric complexity (736), the outer boundary of the circle represents the peak of known knowledge about an individual metric. Thus, the outer edge of the circle represents more metric complexity while the center represents less complex metrics. The central light gray represents the metric combinations of the current batch of applied perspectives of perception, while the outer dark gray represents metric complexities that are generally stored and known in the system. The goal of ID(477) is to increase the complexity of the relevant metric items so that the angle of perception can be multiplied by the complexity and quantity. The known metric complexity from the current batch is added to the relevant metric DB(738) if it does not already contain such detail/complexity. In this way, the system is fully circularized and the newly stored metric complexity can be used for future batches of perspectives of perception implicit derivation. This composite metric composition(736) is passed as input to the metric expansion(ME)(495) where the metrics of a number of different perception perspectives are stored by category in individual databases(738). The dark gray surface area represents the total range of the current batch of applied perspectives of perception and the amount of remaining range based on the known upper bound. The upper bound is represented as the best knowledge of each individual metric DB. Thus, the current metric batch (derived by the current batch of perspective perception) is enhanced with previously known detail/complexity. Upon enhancement and complexity enhancement, the metrics are returned as metric complexity(737). As shown in the diagram (737), the light gray area increases in all four sectors of metric range (739), consistency (740), type (741) and intensity (742). This indicates that the perception has become more detailed and complex in all four metric areas. This increased metric complexity (737) is fed into the input of the metric transformation (494), which flips the individual and global perception perspectives (735). Thus, the final output is assembled into an implicit perspective of perception (471), which is an extended version of the applied perspective (470) of the original input perception.

도 118 내지 도 120은 자기 비판적 지식 밀도(SCKD(492)를 보여 주며 보고 가능한 로그의 범위를 벗어나는 잠재적인 알려지지 않은 지식의 범위와 타입을 추정한다. 이러한 방식으로 CTMP(22)의 비판적 사고 기능은 시스템에 의해 직접 알려지고 알려지지 않은 모든 관련 지식의 잠재적 범위를 활용할 수 있다. 다음은 SCKD(492)의 의도된 기능 및 성능을 보여주기 위한 사용 케이스의 예이다.Figures 118-120 illustrate the self-critical knowledge density (SCKD (492)) and estimate the scope and types of potential unknown knowledge that are beyond the scope of reportable logs. In this way, the critical thinking capabilities of the CTMP (22) can utilize the potential scope of all relevant knowledge, both known and unknown, directly by the system. The following are examples of use cases to demonstrate the intended functionality and performance of the SCKD (492).

1)이 시스템은 핵 물리학에 대한 강력한 기준 범위를 구축했다.1) This system establishes a powerful reference range for nuclear physics.

2)이 시스템은 핵 물리학과 양자 물리학이 복잡성과 타입 측면에서 카테고리화되고 체계적으로 유사하다는 비유를 수행했다.2) This system performed an analogy in which nuclear physics and quantum physics were categorized and systematically similar in terms of complexity and type.

3) 그러나 이 시스템은 핵 물리학보다 양자 물리학에 대한 참조 가능한 지식이 훨씬 적다.3) However, this system has much less referenceable knowledge about quantum physics than about nuclear physics.

4) 따라서 시스템은 핵 물리학의 유추를 통해 잠재적으로 달성 할 수 있는 양자 물리학 지식의 상한을 정의한다.4) Thus, the system defines an upper limit on the knowledge of quantum physics that is potentially achievable by analogy with nuclear physics.

5)이 시스템은 양자 물리학 측면에서 알려지지 않은 지식의 범위가 크다는 것을 결정한다.5) This system determines that there is a large amount of unknown knowledge in terms of quantum physics.

알려진 데이터 분류(KDC)(743)는 확인된(알려진) 정보를 입력(746)과 단호하게 분리함으로써 적절한 DB 유추 질의가 수행 될 수 있도록 한다. 이러한 정보는 카테고리 A, B 및 C(750)으로 분리 된 후 개별 카테고리가 개별적으로 비교 가능한 가변적 형식 생성기(CVFG)(491)에 입력을 제공한다. CVFG는 알려진 정보 범위 DB(747)의 유사성을 확인하기 위해 저장 검색(SS)(480)에 의해 사용되는 CVF(547) 포맷으로 카테고리 정보를 출력한다. DB(747)에서는 알려진 데이터의 상한이 데이터 카테고리에 따라 정의된다. 유사한 유형 및 데이터 구조를 비교하여 지식 범위의 신뢰를 평가한다. SS(480)이 시나리오(748)에서 지식 유추를 위한 결과를 찾지 못하면 현재의 데이터가 저장되어 향후 비유가 만들어 질 수 있다. 사용 케이스 예제에 따르면, 이것은 핵 물리학의 범위를 정의 할 수 있는 사건이다. 그러면 양자 물리학이 미래에 참조 될 때, 그것은 핵 물리학 지식 범위의 현재 저장과 함께 그것의 지식 범위를 비유 할 수 있다. 시나리오(749)는 결과 발견 상황을 기술하며, 각 카테고리는 SS(480) 결과에 따라 알려진 데이터의 관련 범위로 태그가 지정된다. 그 후 카테고리 당 알려지지 않은 정보의 태깅된 범위는 알려지지 않은 데이터 조합(UDC; Unknown Data Combiner)(744)에서 원래 데이터의 동일한 스트림(입력(746))으로 재 조립된다. 출력(745)에서 원래의 입력 데이터가 리턴되고 알려지지 않은 데이터 범위 정의와 결합된다. 도 119에서, 알려진 데이터 분류(KDC) 모듈(743)이 보다 상세히 도시된다. 알려진 데이터(752)는 주 입력이며, 에러 로그로부터의 개별 엔트리와 같은 데이터의 정의된 범위를 나타내는 정보 블록(755)을 포함한다. 단계 756은 사용 케이스에 따라 핵 물리학 정보로 표시된다는 것을 블록 내에서 인식 할 수 있는 정의가 있는지 확인한다. 카테고리 홀드 아웃(750)에서 블록의 정보 라벨에 적합한 카테고리가 존재하는 경우 기존 카테고리는 처리된 블록 정보(755)를 보완하여 단계 748의 세부 사항으로 강화된다. 그러한 카테고리가 존재하지 않으면, 정보 블록(755)이 적절하고 정확하게 저장 될 수 있도록 단계 (749)에서 생성된다. 가장 기본적인 로직(759)은 모든 블록이 처리 될 때까지 순차적으로 블록을 순환한다. 이들 모두가 처리 된 후 최소 금액(정책에 의해 정의 됨)이 카테고리 홀드 아웃(750)에 제출된 경우 KDC(743)는 모듈 결과를 빈(Null) 결과(618)로 제출한다. 충분한 양의 처리 된 블록이 있으면 카테고리 홀드 아웃(750)이 중간 알고리즘(751)(주로 SCKD(492) 임)에 제출된다. 미지 데이터 결합기(UDC)(744)는 중간 알고리즘(751)으로부터 태그된 알려지지 않은 데이터 포인트(757)와 함께 알려진 데이터를 수신한다. 이러한 데이터는 처음에는 카테고리 홀드 아웃(750)에 저장되고 가장 기초적인 로직(760) 사이클을 통해 모든 데이터 단위가 순차적으로 저장된다. 단계 754는 홀드 아웃(750)의 정의 된 카테고리가 개별 카테고리를 합동 정보 스트림으로 재구성하는 방법을 기술하는 원래의 메타 데이터를 포함 하는지를 점검한다. 그러한 메타 데이터는 원래 KDC(743)의 입력 알려진 데이터(752)에서 발견되었는데, 그 단계에서 데이터는 아직 카테고리로 분리되지 않았으며 모든 데이터를 보유한 초기 단일 합동 구조가 있었기 때문이다. 단계 754가 대응하는 데이터와 메타 데이터를 재 연관시킨 후, 태그된 블록은 블록 재조합 홀드아웃 (Block Recombination Holdout)(753)으로 전송된다. 단계 754에서 데이터와 일치하는 메타 데이터가 발견되지 않으면, 홀드 아웃(753)은 필연적으로 비어있게 되고 모듈화 된 빈(null) 결과(618)가 반환된다. 성공적인 메타 데이터 일치 시 홀드 아웃(753)이 채워지고 UDC(744)의 모듈 출력은 알려진 데이터 + 태그된 알려지지 않은 데이터(757)이다. 모듈 출력에서 블록(755)는 KDC(743)의 알려진 데이터(752)에 있는 원래 정보 블록을 나타낸다. 오각형(758)은 알려진 데이터(755)의 모든 블록과 결합되는 알 수 없는 데이터 범위 정의를 나타낸다.The Known Data Classification (KDC) (743) allows proper DB inference queries to be performed by strictly separating the known (known) information from the input (746). This information is separated into categories A, B, and C (750), and then input into a Variable Format Generator (CVFG) (491) where each category can be compared individually. The CVFG outputs the category information in the CVF (547) format, which is used by the Stored Search (SS) (480) to determine the similarity of the known information range DB (747). In the DB (747), the upper bound of the known data is defined according to the data category. The confidence in the knowledge range is assessed by comparing similar types and data structures. If the SS (480) does not find a result for knowledge inference in the scenario (748), the current data is stored so that future analogies can be made. In the use case example, this is an event that can define the scope of nuclear physics. Then, when quantum physics is referenced in the future, it can be likened to its knowledge scope with the current storage of nuclear physics knowledge scope. The scenario (749) describes the result discovery situation, where each category is tagged with a relevant range of known data based on the SS (480) results. The tagged range of unknown information per category is then reassembled into the same stream of original data (input (746)) in the Unknown Data Combiner (UDC) (744). At the output (745) the original input data is returned and combined with the unknown data range definition. In Fig. 119, the Known Data Classification (KDC) module (743) is illustrated in more detail. The known data (752) is the primary input and includes information blocks (755) representing defined ranges of data, such as individual entries from an error log. Step 756 checks whether there is a definition within the block that can be recognized as being nuclear physics information according to the use case. In the category hold out (750), if a suitable category exists for the information label of the block, the existing category is augmented with the details of step 748 by supplementing the processed block information (755). If no such category exists, it is created in step (749) so that the information block (755) can be stored properly and accurately. The most basic logic (759) sequentially iterates through the blocks until all the blocks are processed. After all of them are processed, if the minimum amount (defined by the policy) has been submitted to the category hold out (750), the KDC (743) submits the module result as an empty (Null) result (618). If there is a sufficient amount of processed blocks, the category hold out (750) is submitted to the intermediate algorithm (751) (usually SCKD (492)). The unknown data combiner (UDC) (744) receives the known data along with the tagged unknown data points (757) from the intermediate algorithm (751). These data are initially stored in the category holdout (750) and through the most basic logic (760) cycle, all data units are stored sequentially. Step 754 checks whether the defined categories of the holdout (750) contain original metadata describing how to reconstruct the individual categories into a joint information stream. Such metadata was originally found in the input known data (752) of the KDC (743) because at that stage the data was not yet separated into categories and there was an initial single joint structure holding all the data. After step 754 has re-associated the corresponding data and metadata, the tagged block is sent to the Block Recombination Holdout (753). If no metadata matching the data is found in step 754, the holdout (753) is necessarily empty and a modularized null result (618) is returned. Upon successful metadata match, the holdout (753) is filled and the module output of the UDC (744) is the known data + tagged unknown data (757). In the module output, the block (755) represents the original information block in the known data (752) of the KDC (743). The pentagon (758) represents the unknown data range definition that is combined with all the blocks of the known data (755).

어휘 객관성 마이닝(LOM; Lexical Objectivity Mining)Lexical Objectivity Mining (LOM)

도 121은 어휘 객관성 마이닝(LOM)의 주된 논리를 나타낸다. LOM은 광범위한 질문 및/또는 주장에 대한 객관적인 대답에 최대한 가깝게 접근하려고 시도한다. 그것은 인간 주체(800)와 연계하여 LOM의 입장에 대해 자신의 주장을 인정하거나 개선할 수 있도록 한다. 논쟁을 유도하거나 개선하는 것은 LOM의 핵심 철학이다. 그것은 그것이 틀렸을 때 그것이 처음부터 지식을 얻는 인간의 지식으로부터 배울 수 있도록 인정해야 하기 때문이다. LOM은 매우 데이터베이스가 무겁우며(CPU, RAM 및 디스크가 모두 중요한 플레이어), 중앙 지식 보존(CKR)(806)이 단일(중복성 및 백업을 위해 복제 됨) 마스터 사례로 중앙 집중화되어 혜택을 볼 수 있다. 제3(타사의) 앱은 유료 또는 무료 API를 통해 이러한 중앙 마스터 사례에 연결될 수 있다. LOM의 활동은 주체 LOM 시각 인터페이스에 질문이나 주장(801)을 제시하는 인간 주체(800)에서 시작된다. 이러한 질문 / 주장(801A)은 중앙 지식 보유(CKR)(806)를 활용하여 질문/ 주장에 대한 이해 및 응답/ 응답에 결정적인 누락된 세부 사항을 해독하는 초기 쿼리 추론(IQR)(802)으로 처리를 위해 전송된다. [...]Figure 121 illustrates the main logic of Lexical Objectivity Mining (LOM). LOM attempts to get as close as possible to an objective answer to a broad question and/or claim. It engages with a human subject (800) to either acknowledge or improve its argument relative to the LOM's position. Promoting or improving an argument is a core philosophy of LOM, as it must acknowledge when it is wrong so that it can learn from the human knowledge that it gained from the first knowledge. LOM is very database-heavy (CPU, RAM, and disk are all important players) and would benefit from having a centralized central knowledge preserve (CKR) (806) as a single (replicated for redundancy and backup) master instance. Third-party (third-party) apps can connect to this central master instance via paid or free APIs. LOM's activity begins with a human subject (800) who poses a question or claim (801) to the LOM visual interface. These questions/assertions (801A) are then sent for processing to an initial query inference (IQR) (802) that utilizes a central knowledge reserve (CKR) (806) to decipher missing details critical to understanding and answering/responding to the questions/assertions. [...]

그 후, 보충 질문 데이터와 함께 질문/ 주장(801)은 인간 주체(800)와 연관되는 조사 해설(SC)(803A)으로 전송되어 질문/ 주장(801A)이 객관적으로 그리고 모든 필요한 맥락으로 분석 될 수 있도록 보충 정보를 얻는다. 따라서 명확한 질문/ 주장(801B)가 형성되며, 원래의 질문/ 주장(801)을 인간 주체(800)에 의해 제기된 것처럼 보였지만 SC(803A)를 통해(800)에서 배운 세부 정보를 보충했다. 주장 구성(AC)(808A)는 주장이나 질문(801B와 같은)의 형태로 제안을 받고 그러한 제안과 관련된 개념의 산출물을 제공한다. 반응 제시(Response Presentation)(809)는 LOM (특히 AC(808))이 작성한 결론을 인간 주체(800)과 합리적 호소(RA)(811) 모두에 표시하기 위한 인터페이스이다.Thereafter, the question/claim (801) along with the supplementary question data is transmitted to the Research Commentary (SC) (803A) associated with the human subject (800) to obtain supplementary information so that the question/claim (801A) can be analyzed objectively and in all necessary context. Thus, a clear question/claim (801B) is formed, which appears to be the original question/claim (801) posed by the human subject (800) but supplemented with details learned from (800) via the SC (803A). The Claim Construction (AC) (808A) receives a proposition in the form of a proposition or a question (such as 801B) and provides an output of concepts related to such proposition. The Response Presentation (809) is an interface for presenting the conclusions generated by the LOM (specifically the AC (808)) to both the human subject (800) and the Rational Appeal (RA) (811).

이러한 인터페이스는 인간(800)이 RA(811)을 이해하고 순수한 디지털 구문 형식으로 시각적으로 표현된다. 계층적 맵핑(HM; Hierarchical Mapping)(807A)는 관련 개념을 매핑하여 질문/ 주장 일관성에서 확인 또는 충돌을 찾는다. 그런 다음 주제에 대해 특정 태도를 취할 때의 이점과 위험을 계산한다. 중앙 지식 보유(806)는 LOM에 대한 지식을 참조하기 위한 기본 데이터베이스이다. 쿼리 효율성과 논리적 카테고리화 및 개념 분리를 위해 최적화되어 강력한 논증이 만들어지고 인간 주체(800) 비판에 대응하여 패배한다. 지식 검증(Knowledge Validation, KV)(805A)은 질의 능력 및 CKR(806)으로의 동화(assimilation)를 위해 논리적으로 분리될 필요가 있는 신뢰도가 높고 미리 비판된 지식을 받는다. 응답 수락(Accept Response)(810)은 LOM의 응답을 수락하거나 비평으로 호소하기 위해 인간 주체(Human Subject)800에게 주어진 선택이다. 응답이 수락되면, KV(805A)에 의해 처리되어 확인된(높은 신뢰도) 지식으로서 CKR(806)에 저장 될 수 있다. 인간 주체(800)가 응답을 수락하지 않으면 인간(800)이 제공한 항소(appeal) 이유를 확인하고 비판하는 합리적 호소(RA)(811A)로 전달된다. RA(811A)는 그것이 자기 비판이든 또는 인간 반응에 대한 비판이든(응답 수락(810)에서 'NO' 응답으로 부터) 주장을 비판 할 수 있다.This interface is visually represented in a purely digital syntax format that allows the human (800) to understand the RA (811). The Hierarchical Mapping (HM) (807A) maps relevant concepts to find confirmations or conflicts in the consistency of the question/claim. It then calculates the benefits and risks of taking a particular stance on the topic. The Central Knowledge Repository (806) is the primary database for referencing knowledge about the LOM. It is optimized for query efficiency and logical categorization and separation of concepts, allowing for strong arguments to be built and defeated by the human subject (800) in response to criticism. The Knowledge Validation (KV) (805A) receives high-confidence, pre-criticized knowledge that needs to be logically separated for querying and assimilation into the CKR (806). The Accept Response (810) is the choice given to the human subject (Human Subject) 800 to either accept the response of the LOM or appeal to criticism. If the response is accepted, it can be processed by the KV (805A) and stored in the CKR (806) as verified (high confidence) knowledge. If the human subject (800) does not accept the response, it is passed on to a rational appeal (RA) (811A) that verifies and critiques the appeal reason provided by the human (800). The RA (811A) can critique the claim, whether it is self-criticism or critique of the human response (from a 'NO' response in the response acceptance (810)).

도 122 내지 도 124는 관리형 인공 지능의 서비스 공급자(MAISP)(804A)를 보여준다. MAISP는 중앙 지식 보유(CKR)(806)의 마스터 사례로 LOM의 인터넷 클라우드 사례를 실행한다. MAISP(804A)는 LOM을 프론트 엔드 서비스(861A), 백엔드 서비스(861B), 제 3 (타사) 애플리케이션(응용 프로그램) 의존성(804C), 정보 소스(804B) 및 MNSP(9) 클라우드에 연결한다. 프론트 엔드 서비스(861A)에는 인위적으로 지능형 개인 보조 장치(예: 애플의 Siri, Microsoft의 Cortana, Amazon의 Alexa, Google 보조), 통신 응용 프로그램 및 프로토콜 (예: Skype, WhatsApp), 홈 오토메이션 (냉장고, 차고, 문, 온도 조절기) 및 의료용 어플리케이션(즉, 의사의 2 차 의견, 의료 기록)를 포함한다. 백엔드 서비스(861B)는 온라인 쇼핑(즉, Amazon.com), 온라인 운송(즉, 우버 (Uber)), 처방전 주문 (즉, CVS) 등을 포함한다. 이러한 프론트 엔드(861A) 및 백 엔드(861B) 서비스는 정보 전송 및 프로토콜의 표준화를 가능하게 하는 문서화된 API 기반 구조(804F)를 통해 LOM과 상호 작용한다. LOM은 자동화된 연구 메커니즘(ARM)(805B)을 통해 외부 정보 소스(804B)에서 지식을 검색한다.Figures 122-124 illustrate a managed artificial intelligence service provider (MAISP) (804A). The MAISP implements the Internet cloud instance of LOM as a master instance of a central knowledge repository (CKR) (806). The MAISP (804A) connects the LOM to front end services (861A), back end services (861B), third party application (application) dependencies (804C), information sources (804B), and the MNSP (9) cloud. The front end services (861A) include artificially intelligent personal assistants (e.g., Apple's Siri, Microsoft's Cortana, Amazon's Alexa, Google Assistant), communication applications and protocols (e.g., Skype, WhatsApp), home automation (fridge, garage, doors, thermostats), and medical applications (i.e., second opinions, medical records). Backend services (861B) include online shopping (i.e., Amazon.com), online transportation (i.e., Uber), prescription ordering (i.e., CVS), etc. These frontend (861A) and backend (861B) services interact with LOM via a documented API-based architecture (804F) that enables standardization of information transfer and protocols. LOM retrieves knowledge from external information sources (804B) via an automated research mechanism (ARM) (805B).

도 125 내지 도 128은 LOM의 종속성(의존성) 구조를 보여 주며 모듈이 서로 상호 의존하는 방법을 도시한다. 언어학적 구성(LC)(812A)는 인간 주체(800) 및 병렬 모듈의 원시 질문 / 주장 입력을 해석하여 LOM 시스템 전체에서 이해할 수 있는 언어 구문의 논리적 분리를 생성한다. 개념 발견(CD)(813A)은 명확화 된 질문/ 주장(804) 내의 관심 포인트를 수신하고 CKR(806)을 레버리지함으로써 관련된 개념을 도출한다.Figures 125 through 128 illustrate the dependency structure of the LOM and illustrate how the modules are interdependent on one another. The linguistic construct (LC) (812A) interprets the raw question/assertion input from the human subject (800) and the parallel modules to generate a logical breakdown of linguistic constructs understandable to the LOM system as a whole. The concept discovery (CD) (813A) receives points of interest within the disambiguated question/assertion (804) and leverages the CKR (806) to derive related concepts.

개념 우선 순위(CP)(814A)는 관련 개념을 수신하고 특수성 및 일반성을 나타내는 논리적 계층으로 지시한다. 최상위 계층에는 가장 일반적인 개념이 할당되고 하위 계층에는 점점 더 구체적인 개념이 할당된다. 응답 분리 로직(RSL)(815A)은 LC(812A)를 활용하여 사람의 반응을 이해하고 적절하고 유효한 응답을 초기 명확화 요청과 연관시켜 SC(803A)의 목적을 달성한다. LC(812A)는 출력 단계에서 다시 활용되어 원래의 질문/ 주장(801)을 수정하여 SC(803)에서받은 보충 정보를 포함시킨다. 인간 인터페이스 모듈(HIM; Human Interface Module)(816A)는 초기 질문 추론(IQR)(802A)에서 지정한 지식의 틈을 해결하기 위해 인간 주체(800)에 명확하고 논리적으로 분리된 프롬프트를 제공한다. 문맥 구성(CC)(817A)은 주장 구성(AC; Assertion Construction)(808A)의 메타 데이터와 인간 주체(800)의 잠재적인 증거를 사용하여 비판적 사고를 위한 CTMP에 원시 사실을 제공한다. 결정 비교(DC)(818A)는 사전 비판 결정과 사후 비판 결정 사이의 중첩을 결정한다. 개념 호환성 탐지(CCD)(819A)는 원래의 질문/ 주장(801)으로부터의 개념적 파생물을 비교하여 논리적 호환성 결과를 확인한다. 그러한 개념은 상황, 존재 상태, 부채 등을 나타낼 수 있다. 이익/ 위험 계산기(BRC)(820A)는 CCD(819A)의 호환성 결과를 수신하고 개념 구성에 포함된 변수의 그라디언트를 포함하는 균일 한 결정을 형성하기 위해 이점과 위험을 고려한다. 개념 상호 작용(CI)(821A)은 AC(808A) 개념에 관련된 속성을 조사 설명(SC)(803A)를 통해 인간 주체(800)에서 수집한 정보의 일부에 할당한다.The Concept Priority (CP) (814A) receives related concepts and directs them through a logical hierarchy representing specificity and generality. The top hierarchy is assigned the most general concepts, with lower hierarchies assigning increasingly specific concepts. The Response Separation Logic (RSL) (815A) utilizes the LC (812A) to understand the human response and associate appropriate and valid responses with the initial disambiguation request to achieve the purpose of the SC (803A). The LC (812A) is again utilized in the output stage to modify the original question/assertion (801) to include supplemental information received from the SC (803). The Human Interface Module (HIM) (816A) provides clear and logically separated prompts to the human subject (800) to address the knowledge gaps specified by the Initial Question Reasoning (IQR) (802A). The Context Construction (CC) (817A) provides raw facts to the CTMP for critical thinking using the metadata of the Assertion Construction (AC) (808A) and potential evidence from the human subject (800). The Decision Comparison (DC) (818A) determines the overlap between the pre-critical decision and the post-critical decision. The Concept Compatibility Detection (CCD) (819A) compares the conceptual derivatives from the original question/claim (801) to determine the logical compatibility results. Such concepts may represent situations, states of being, liabilities, etc. The Benefit/Risk Calculator (BRC) (820A) receives the compatibility results of the CCD (819A) and considers the benefits and risks to form a uniform decision that includes the gradient of the variables included in the concept construction. The Concept Interaction (CI) (821A) assigns attributes related to the AC (808A) concepts to some of the information collected from the human subject (800) via the Investigative Description (SC) (803A).

도 129 및 130은 초기 질문 추론(IQR)(802A)의 내부 논리를 도시한다. IQR(802)의 서브 세트로 동작하는 언어적 구성(LC)(812A) 인간 주체(800)에서 원래의 질문 / 주장 (801)을 수신한다. 801은 언어적으로 분리되어 있으므로 IQR(802A)는 한 번에 각 단어 / 구를 처리한다. 조동사 '해야한다(should)'(822)는 시간 차원(822)에 관한 명확성이 부족하다. 따라서 '매일?', '매주?'등과 같이 명확한 질문에 대한 답이 형성된다. 주체 '나(I)'(823)은 누가 주체인지에 대한 명확성이 부족하다는 것을 나타내므로 후속 질문이 인간 주체(800)에 표시되도록 구성된다. 동사 '먹는다(eat)'(824)는 명확하지 않은 것은 아니지만 명확성이 부족한 다른 분석 지점을 보완 할 수 있다. IQR(802)는 CKR(806) DB를 활용하여 824 단계에서 건강과 돈의 개념과 음식 개념을 연결한다. 이것은 '남성 또는 여성?', '당뇨병?', '운동?', '구매력?'과 같은 보다 적절한 관련 후속 질문이 요청되도록 '주체 질문'(823)이라는 쿼리에 알린다. 명사 '패스트 푸드(fast-food)'(825)는 단어가 어떻게 해석되어야 하는지에 대한 명확성이 부족하다는 것을 암시한다. 그것은 기술적인 의미(827)에서 가장 빠른 형태로 제공되는 음식 중 가장 원시적인 형태로 해석 될 수도 있고, '주문한 장소에서 값 싸고 매우 빠르게 만들어진 튀김된 짭짤한 음식(826)' 가지를 구어체로 이해할 수도 있다. 샐러드 바는 기술적으로 미리 준비되어 있고 즉시 사용할 수 있는 음식을 얻기 위한 빠른 방법이다. 그러나 이 기술적 인 정의는 '패스트 푸드 (fast-food)'에 대해보다 일반적으로 이해되는 구어체의 이해를 따른다. CKR(806)을 참조함으로써 IQR(802)는 '패스트 푸드 (fast-food)'라는 용어의 모호성을 고려하여 가능한 가능한 옵션을 고려한다. '버거 가게?'와 '샐러드 바?'와 같은 모호한 옵션은 인간 인터페이스 모듈(HIM)(816)을 통해 인간 주체(800)로 전달 될 수 있다. 그러나 질문(801)의 일반 맥락이 구어 의미(826)에 대한 참조임을 나타내는 충분한 정보가 CKR(806)에 있을 수 있다. CKR(806)은 패스트 푸드와 건강과 관련된 논쟁의 수준이 있다는 것을 점차적으로 배우고 난 후에 그런 일반 맥락을 나타낼 수 있다. 그러므로 질문(801)이 그 논쟁을 언급할 가능성이 높다. 따라서 HIM(816)은 인간 주체(800)를 더 명확히 하기 위해 호출 할 필요가 없다. 따라서 IQR(802)은 정의의 의미에서 명백하고 미묘한 뉘앙스를 해독하고자 한다. 질문(828)은 LOM 전체에 대해 인간 주체(800)가 진술을 주장하는 것이 아니라 질문을 하고 있음을 나타낸다.Figures 129 and 130 illustrate the internal logic of the initial question inference (IQR) (802A). The linguistic construct (LC) (812A) operating as a subset of the IQR (802) receives the original question/assertion (801) from the human subject (800). Since the 801s are linguistically disjoint, the IQR (802A) processes each word/phrase at a time. The auxiliary verb 'should' (822) lacks clarity regarding the time dimension (822). Therefore, answers to clear questions such as 'daily?', 'weekly?', etc. are formed. The subject 'I' (823) indicates a lack of clarity about who the subject is, so the follow-up questions are structured to be addressed to the human subject (800). The verb 'eat' (824) is not ambiguous, but can compensate for other points of analysis that lack clarity. IQR (802) connects the concepts of health and money with the concept of food at step 824 by leveraging the CKR (806) DB. This informs the query 'subject question' (823) to ask more relevant follow-up questions such as 'male or female?', 'diabetes?', 'exercise?', 'purchasing power?'. The noun 'fast-food' (825) suggests a lack of clarity as to how the word should be interpreted. It can be interpreted in its technical sense (827) as the most primitive form of food served in the fastest form, or in its colloquial sense as 'cheap, savory fried food made very quickly at a place where you order it' (826). A salad bar is technically a quick way to get food that is pre-prepared and ready to use. However, this technical definition follows the more commonly understood colloquial understanding of 'fast-food'. By referencing the CKR (806), the IQR (802) considers possible possible options considering the ambiguity of the term 'fast-food'. Ambiguous options such as 'burger shop?' and 'salad bar?' can be communicated to the human subject (800) via the human interface module (HIM) (816). However, there may be sufficient information in the CKR (806) to indicate that the general context of the question (801) refers to the spoken meaning (826). The CKR (806) may indicate such a general context after gradually learning that there is a level of controversy surrounding fast food and health. Therefore, it is likely that the question (801) refers to that controversy. Therefore, the HIM (816) does not need to call upon the human subject (800) for further clarification. Thus, the IQR (802) seeks to decipher the clear and subtle nuances in the meaning of the definition. The question (828) indicates that the human subject (800) is asking a question rather than asserting a statement about the LOM as a whole.

도 131은 IQR(802)로부터 입력을 수신하는 조사 설명(SC)(803)을 도시한다. 이러한 입력은 도달 할 원래 질문 / 주장(801)에 대한 객관적인 대답을 위해 인간 주체(800)가 응답해야 하는 일련의 요청된 명확화(830)를 포함한다. 따라서 요청된 명확화(830)는 휴먼 인터페이스 모듈(HIM)(816B)에 전송된다. 그러한 명확화에 대한 응답은 응답 분리 로직(RSL; Response Separation Logic)(815A)으로 전달되며 그 후 응답을 명확화 요청과 연관시킨다. 처리중인 요청된 명확화(830)와 병행하여 명확화 언어적 연관성(829)이 언어적 구성(LC)(812A)에 제공된다. 이러한 연관성(829)은 요청된 명확화(830)와 언어적 구조 간의 내부 관계를 포함한다. 이것은 RSL(815A)가 원래의 질문 / 주장(801)을 수정하여 LC(812A)가 HIM(816)을 통해 습득한 정보를 통합한 명확한 질문(804)를 출력 할 수 있게 한다.Fig. 131 illustrates a survey description (SC) (803) receiving input from an IQR (802). The input comprises a series of requested clarifications (830) to which a human subject (800) must respond in order to provide an objective answer to the original question/claim (801) being reached. The requested clarifications (830) are therefore transmitted to a human interface module (HIM) (816B). A response to such clarifications is passed to a response separation logic (RSL) (815A) which then associates the response with the clarification request. In parallel with the requested clarifications (830) being processed, clarification linguistic associations (829) are provided to a linguistic construct (LC) (812A). These associations (829) comprise internal relationships between the requested clarifications (830) and linguistic structures. This allows the RSL (815A) to modify the original question/assertion (801) to output a clear question (804) that integrates the information acquired by the LC (812A) via the HIM (816).

도 132는 조사 설명(SC)(803)에 의해 생성된 명확화된 질문 / 주장(804)을 수신한 주장 구성(AC)(808)을 도시한다. 그런 다음 LC(812A)는 질문을 개념 발견(CD)(813)에 전달되는 관심 포인트(834)(핵심 개념)로 분류한다. CD는 CKR(806)을 이용하여 관련 개념(832)을 도출한다. 개념 우선 순위(CP)(814A)는 개념(832)을 특이성 및 일반성을 나타내는 논리적 계층으로 순서화 할 수 있다. 최상위 계층에는 가장 일반적인 개념이 할당되고 하위 계층에는 점점 더 구체적인 개념이 할당된다. 이러한 정렬은 CKR (806)에 의해 제공된 데이터로 용이하게 수행되었다. 최상위 계층은 모듈러 입력으로서 계층 적 매핑(HM)(807)으로 전달된다. 정보의 병렬 전달에서, HM(807)은 그 의존성 모듈 개념 상호 작용(CI)(821)에 의해 처리되는 관심 지점(834)을 수신한다. CI는 CKR (806)에서 이용 가능한 인덱싱 된 정보에 액세스함으로써 그러한 관심 지점 (834)에 속성을 할당한다. HM(807)이 내부 프로세스를 완료하면 파생된 개념의 호환성 테스트가 완료되고 자세의 이익 / 위험이 측정되고 반환된 후 최종 출력이 AC(808)로 반환된다. AC(808) 및 HM(807)이 완전한 원에 도달했기 때문에 이를 모듈 출력 피드백 루프(833)라고 하고, 분석이 개념의 복잡성을 완전히 포화시킬 때까지 그리고 CKR(806)이 지식의 한계로 인해 병목 현상이 될 때까지 (어느 것이 든 먼저 오는 것) 모듈 출력을 계속해서 전송한다.Figure 132 illustrates an assertion construct (AC) (808) that receives a clarified question/claim (804) generated by a survey description (SC) (803). The LC (812A) then categorizes the question into points of interest (834) (key concepts) that are passed to a concept discovery (CD) (813). The CD derives relevant concepts (832) using a concept locator (CKR) (806). A concept priority (CP) (814A) can order the concepts (832) into a logical hierarchy that represents specificity and generality. The most general concepts are assigned to the top hierarchy, and increasingly specific concepts are assigned to lower hierarchies. This ordering is facilitated by the data provided by the CKR (806). The top hierarchy is passed as modular input to a hierarchical mapping (HM) (807). In the parallel transmission of information, HM (807) receives interest points (834) which are processed by its dependent module concept interaction (CI) (821). CI assigns properties to such interest points (834) by accessing the indexed information available in CKR (806). Once HM (807) completes its internal process, compatibility testing of derived concepts is completed and the benefits/risks of the details are measured and returned, after which the final output is returned to AC (808). Since AC (808) and HM (807) have come full circle, this is called module output feedback loop (833) and continues to transmit module outputs until the analysis fully saturates the complexity of the concepts and CKR (806) becomes a bottleneck due to its knowledge limitations (whichever comes first).

도 133 및 134는 계층적 매핑(HM)(807)이 어떻게 작동하는지에 대한 내부 세부 사항을 도시한다. AC(808)은 두 가지 유형의 입력을 HM(807)에 병렬로 제공한다. 하나는 개념적 관심 영역(834)로 알려져 있고 다른 하나는 우선 순위가 부여된 개념(837)(가장 일반적인 개념)의 최상위 계층이다. 개념 상호 작용(CI)(821)은 두 입력을 사용하여도 도 128에 도시 된 바와 같이 상황 별 결론을 관심 영역(834)과 연관시킨다. CI(821)는 두 개념 사이의 호환성 / 충돌 수준을 식별하는 개념 호환성 검출(CCD)에 입력을 제공한다. 이는 HM(807)에 인간 주체(800)의 주장 및/ 또는 문제와 중앙 지식 보유(CKR)(806)에서 인덱스된 높은 신뢰 지식 간의 합의 또는 의견 불일치에 대한 전반적인 이해를 부여한다. 이러한 호환성/ 충돌 데이터는 이러한 호환성 및 충돌을 이 문제에 대해 전체적으로 통일된 입장을 취함과 관련된 이익 및 위험으로 변환하는 모듈인 이익/위험 계산기(BRC)(820)로 전달된다. 예를 들어, 사용 사례(인간 주체(800)에서 설정 한 기준에 따라)에 따라 세 가지 주요 입장이 나온다: 패스트 푸드는 전반적으로 권장되지 않거나, 패스트 푸드는 허용되지만 강조되지 않거나, 패스트 푸드가 전반적으로 권장된다. 그러한 자세는 위험/ 이익 요인과 함께 모듈 출력(836)으로 AC(808)에 전달된다. 이것은 AC(808)가 HM(807)이 제시한 주장의 확장을 용이하게 하려고 하므로 LOM 내의 몇 가지 포인트 중 하나이다. 정보 흐름 루프를 포함하는 시스템은 점차적으로 구축된 객관적인 반응인 질문 / 주장의 주관적인 특성으로 점차적으로 보완되는 지능의 그라디언트를 나타낸다. 비유는 꿀벌이 꽃의 과즙을 찾고, 실수로 다른 꽃에 퍼지는 꽃가루를 수집하는 방법이다. 이 꽃의 수정은 장기적으로 아직 더 많은 꿀벌을 끌어들이는 더 많은 꽃을 생산한다. 이는 시스템이 주제의 입장에 대해 강한 확신을 가질 때까지 LOM 내에서 발생하는 상호 연결된 정보 생태계와 유사하여 주장과 성숙한 개념을 점진적으로 '수분(pollinate)'한다. HM(807)의 하위 집합인 개념 상호 작용(CI)의 내부 동작이 도 128에 표시된다. CI(821)은 관심 포인트들(834)을 받고 우선 순위 개념(837)의 최상위 계층에 따라 각각을 해석한다. 이 예에서 상위 계층의 두 가지 우선 순위 개념은 '건강'과 '예산 제약'이다(837). 따라서 CI가 관심 분야(834)를 해석하려고 시도하면 이 주제의 관점을 통하여 이루어질 것 이다. 관심 분야 '당뇨병'(838)은 '예산 제약'(837)에 관한 '비싼 의약'과 '건강'(837)에 관한 '더 취약한 건강'/ '설탕 과민증'에 대한 주장으로 이어진다. 관심 포인트 '남성'(839)은 낮은 신뢰감에도 불구하고 '일반적으로 시간에 쫓긴다'고 주장한다. 체계는 '일 중독'등을 위해 더 많은 특이성이 필요하다는 것을 발견한다. 시간 문제는 시간과 돈 사이의 상관 관계를 시스템이 인식함에 따라 '예산 제약'에 반비례한다. 관심 영역 ' 중상층'(840)은 '예산 제약'(837)과 관련하여 '양질의 음식을 살 수 있다'고 주장한다. 관심 영역 '버거 킹'(841)은 '예산 제약'(837)에 관해 '싸고' '건강'(837)에 관한 '높은 설탕 함량'과 '튀김 음식'이다. 이러한 주장은 CKR(806)에 저장된 확고하고 신뢰할 수 있는 지식을 참조하여 이루어진다.Figures 133 and 134 illustrate internal details of how the hierarchical mapping (HM) (807) works. The AC (808) provides two types of inputs to the HM (807) in parallel. One is known as a conceptual area of interest (834) and the other is a top-level hierarchy of prioritized concepts (837) (the most common concepts). The Concept Interaction (CI) (821) uses both inputs to associate contextual conclusions with the area of interest (834) as illustrated in Figure 128. The CI (821) provides input to a Concept Compatibility Detection (CCD) which identifies the level of compatibility/conflict between two concepts. This gives the HM (807) an overall understanding of the agreement or disagreement between the human subject's (800) claims and/or issues and the high confidence knowledge indexed in the Central Knowledge Repository (CKR) (806). This compatibility/conflict data is passed to the Benefit/Risk Calculator (BRC) (820), a module that converts these compatibility and conflict into benefits and risks associated with taking an overall unified stance on the issue. For example, depending on the use case (based on criteria set by the human subject (800)), there are three main positions: fast food is generally discouraged, fast food is allowed but not emphasized, or fast food is generally encouraged. Such a stance is passed to the AC (808) as a module output (836) along with the risk/benefit factors. This is one of several points within the LOM where the AC (808) attempts to facilitate the expansion of the claim presented by the HM (807). A system that includes an information flow loop represents a gradient of intelligence that is gradually supplemented by the subjective nature of the question/claim, which is an objective response that is gradually built up. An analogy is how a bee searches for nectar on a flower and accidentally collects pollen that is spread to other flowers. The pollination of this flower produces more flowers that attract more bees in the long run. This is similar to the interconnected information ecosystem that occurs within the LOM, progressively 'pollinating' claims and mature concepts until the system becomes strongly confident about its position on the topic. The inner workings of a concept interaction (CI), which is a subset of the HM (807), are illustrated in Figure 128. The CI (821) receives interest points (834) and interprets each according to its top level hierarchy of priority concepts (837). In this example, the two priority concepts in the top level are 'health' and 'budget constraints' (837). Therefore, when the CI attempts to interpret the area of interest (834), it will do so through the perspectives of this topic. The area of interest 'diabetes' (838) leads to claims about 'expensive medications' on 'budget constraints' (837) and 'more vulnerable health'/'sugar intolerance' on 'health' (837). The interest point 'Male' (839) claims that he is 'generally pressed for time' despite his low confidence. The system finds that more specificity is needed for 'workaholics', etc. The time issue is inversely proportional to the 'budget constraint' as the system recognizes the correlation between time and money. The interest area 'Upper Middle Class' (840) claims that he 'can afford good quality food' with respect to the 'budget constraint' (837). The interest area 'Burger King' (841) is 'cheap' with respect to the 'budget constraint' (837) and 'high sugar content' and 'fried food' with respect to 'healthy' (837). These claims are made by referencing the solid and reliable knowledge stored in the CKR (806).

도 135 및 136은 합리적 호소(RA)(811)의 내부 세부 사항을 보여 주며, RA는 자신의 비판 또는 인간의 반응에 대한 비판이라는 주장을 비판했다. LC(812A)는 RA(811)의 핵심 하위 구성 요소로 작동하며 두 가지 소스에서 입력을 수신한다. 하나의 소스는 인간 주체(800)가 842 단계에서 LOM이 주장한 의견을 거부하는 경우이다. 다른 하나는 LOM 내부의 자체 비판을 위해 AC(808)에 의해 구축된 주장을 디지털 방식으로 전송하는 반응 제시(843)이다. LC(812A)가 언어 텍스트를 나머지 시스템에서 이해할 수 있는 구문으로 변환 한 후 RA의 핵심 논리(844)에서 처리한다. 그러한 핵심 논리가 신뢰도 높은 결과(846)를 반환하면, 그 결과는 CKR(806)로의 적절한 동화를 위해 지식 검증(KV)(805)으로 전달된다. 핵심 논리가 신뢰도 낮은(845) 결과를 반환하면 결과가 AC(808)로 전달되어 자기 비판 주기(전체 원에 도달한 LOM의 다른 요소)를 계속 수행한다. 핵심 논리(844)는 언어 요소가 없는 사전 비판적 결정(847)의 형태로(인공 지능 사용에 최적인 구문을 대신 사용하여) LC(812A)로부터 입력을 수신했다. 그러한 결정(847)은 CTMP(22)의 '주관적 의견'(848) 부문으로 직접 전달된다. 결정(847)은 AC(808)로부터의 메타 데이터 및 인간 주체(800)로부터의 잠재적 증거를 사용하여 원시 사실(즉, 시스템 로그)을 CTMP(22)에 '객관적 사실'입력으로 제공하는 문맥 구성(CC)(817)으로 전달된다. CTMP(22)가 두 개의 필수 입력을 받은 상태에서 이러한 정보는 '객관적 의견'(850)에 도달하는 최선의 시도를 출력하기 위해 처리된다. 이러한 의견(850)은 RA(811) 내에서 비평 후 결정(851)으로 내부적으로 취급된다. 사전 비판적(847) 및 사후 비판적(851) 결정은 결정들(847과 851) 사이의 중첩 범위를 결정하는 의사 결정 비교(DC)(818)로 전달된다. 항소 논쟁이 진정(852)한 것으로 인정되거나 항소가 무효 한 이유를 설명하기 위해 항소가 개선(853)된다. 그러한 평가는 인공 지능 또는 인간으로부터 유래된 이의 제기의 편견이나 편견 없이 수행된다. 인정(852) 또는 개선(852) 시나리오와 무관하게, 높은 신뢰도(846)의 결과는 KV(805)로 전달되고 낮은 신뢰도(845)의 결과는 추후 분석을 위해 AC(808)로 전달된다.Figures 135 and 136 show the internal details of the Rational Appeal (RA) (811), where the RA criticizes claims that are either self-critical or human-responsive. The LC (812A) acts as a core subcomponent of the RA (811) and receives input from two sources. One source is the human subject (800) rejecting the assertion made by the LOM at step 842. The other source is the response presentation (843), which digitally transmits the assertion constructed by the AC (808) for self-criticism within the LOM. After the LC (812A) converts the linguistic text into a syntax understandable to the rest of the system, it is processed by the core logic (844) of the RA. If such core logic returns a high-confidence result (846), the result is passed to the knowledge verification (KV) (805) for appropriate assimilation into the CKR (806). If the core logic returns a low confidence (845) result, the result is passed to the AC (808) to continue the self-criticism cycle (another element of the LOM that has come full circle). The core logic (844) receives input from the LC (812A) in the form of a pre-critical decision (847) without any linguistic elements (using a syntax that is optimal for AI use instead). Such a decision (847) is passed directly to the 'subjective opinion' (848) section of the CTMP (22). The decision (847) is passed to the context composition (CC) (817) which provides the raw facts (i.e., system logs) as 'objective fact' inputs to the CTMP (22) using metadata from the AC (808) and potential evidence from the human subject (800). With the CTMP (22) having received the two required inputs, this information is processed to output a best attempt at arriving at an 'objective opinion' (850). These comments (850) are internally treated as post-critical decisions (851) within the RA (811). The pre-critical (847) and post-critical (851) decisions are passed on to a decision comparison (DC) (818) that determines the extent of overlap between the decisions (847 and 851). The appeal is either accepted as true (852) or improved (853) to explain why the appeal is invalid. Such evaluation is performed without any bias or prejudice from objections originating from AI or humans. Regardless of the accepted (852) or improved (852) scenario, a high confidence (846) result is passed on to the KV (805) and a low confidence (845) result is passed on to the AC (808) for further analysis.

도 137 및 138은 LOM의 데이터 기반 인텔리전스가 저장되고 병합되는 중앙 지식 보유(CKR)의 내부 세부 사항을 보여준다. 정보 유닛는 UKF1(855A), UKF2(855B), UKF3(855C)의 세 가지 유형이 있는 유닛 지식 형식(UKF)으로 저장된다. UKF2(855B)는 대상 정보가 값(865H)으로 강조 표시된 규칙 구문 형식 (RSF)(538)에 저장되는 기본 형식이다. 인덱스(856D)는 디지털 저장 및 처리 호환 / 불만 참조 포인트로 대규모의 데이터 모음에 대한 자원 효율적인 참조를 허용한다. 이 주요 정보 블록은 타임 스탬프(856C)를 참조하며 이는 UKF1(855A)로 알려진 인덱스(856A)를 통해 별도의 지식 유닛에 대한 참조이다. 이러한 유닛은 UKF2(855B)와 동일한 타임 스탬프(856C) 섹션을 보유하지 않지만 대신 RSF(538) 형식으로 값(856H) 섹터에 타임 스탬프에 대한 많은 정보를 저장한다. 규칙 구문 형식(RSF)(538)은 참조 규칙을 추적하기 위한 구문 표준의 세트이다. RSF(538) 내의 다수의 규칙 유닛이 단일 객체 또는 동작을 기술하는데 활용 될 수 있다. RSF는 CTMP에서 직접 많이 사용된다. UKF1(855A)는 UKF3(855C) 인스턴스의 인덱스(856G)에 대한 참조인 소스 속성(856B) 섹터를 포함한다. UKF3(855C) 유닛은 UKF1(855A)의 역으로 타임 스탬프 섹션은 있지만 소스 속성 섹션은 아니다. 이것은 UKF3(855C)가 소스 속성(856E 및 856B) 내용을 RSF(538)의 값(856H) 섹터에 저장했기 때문이다. 원본 속성은 요청된 정보 소스를 추적하는 복잡한 데이터의 모음이다. 그러한 출처는 KCA(816D)에서 처리된 확증 및 부정 요인으로 인해 신뢰성 및 신뢰성의 지위를 부여 받는다. 따라서 UKF 클러스터(854F)는 관할 구역에 따라 분리된 정보(시간과 출처가 동적으로 정의됨)를 정의하기 위해 연결된 UKF 변형 체인으로 구성된다. 요약하면: UKF2(855B)는 주요 대상 정보를 포함한다. UKF1(855A)은 타임 스탬프 정보를 포함하므로 무한한 회귀를 피하기 위해 타임 스탬프 필드 자체를 생략한다. UKF3 855C는 소스 속성 정보를 포함하므로 무한한 회귀를 피하기 위해 소스 필드 자체를 생략한다. 모든 UKF2(855B)는 적어도 하나의 UKF1(855A)와 하나의 UKF3(855C)를 동반해야하며, 그렇지 않으면 클러스터(시퀀스)가 불완전한 것으로 간주되고 LOM 전체 시스템에 미치는 일반 논리(859)에서 해당 정보를 아직 처리 할 수 없다. 중앙 UKF2(855B)(중앙 집중식 정보 포함)와 해당 UKF1 (855A) 및 UKF3(855C) 장치 사이에는 연결된 브리지 역할을 하는 UKF2(855B) 장치가 있을 수 있다. 일련의 UKF 클러스터(854D)는 KCA(816D)에 의해 처리되어 파생된 주장(854B)를 형성한다. 마찬가지로 일련의 UKF 클러스터(854E)는 KCA(816D)에 의해 처리되어 파생된 주장(854C)를 형성한다. 지식 확증 분석 (Knowledge Corroboration Analysis, KCA)(816D)는 UKF 클러스터된 정보가 독창적인 태도에 관한 확증적인 증거를 얻기 위해 비교되는 곳이다. 이 알고리즘은 그러한 주장이 제기되었을 때, 증거를 부정하는 등 귀속된 출처의 신뢰성을 고려한다. 따라서 KCA(816D) 처리가 완료된 후 CKR(806)은 주제(854A)에 대한 의견이 제시된 입장을 출력 할 수 있다. 거짓으로 판별된 정보조차도 미래의 진실과 거짓을 구별하는데 유용할 수 있기 때문에 CKR(806)은 결코 정보를 삭제하지 않는다. 따라서 CKR(806)은 CKR(806)의 무제한으로 증가하는 데이터 세트를 처리하고 확장 할 수 있는 고급 스토리지 공간 서비스(854G)를 실행한다.Figures 137 and 138 show the internal details of the central knowledge base (CKR) where the data driven intelligence of the LOM is stored and merged. The information units are stored in a unit knowledge format (UKF) of three types: UKF1 (855A), UKF2 (855B), and UKF3 (855C). UKF2 (855B) is the base format where the target information is stored in a rule syntax format (RSF) (538) highlighted by a value (865H). An index (856D) allows for resource efficient reference to large collections of data as a digital storage and processing compatible/uncomplaint reference point. This main information block references a timestamp (856C) which is a reference to a separate knowledge unit via an index (856A) known as UKF1 (855A). These units do not have the same Timestamp (856C) section as the UKF2 (855B), but instead store much of the information about the Timestamp in the Value (856H) sector in the RSF (538) format. The Rule Syntax Format (RSF) (538) is a set of syntax standards for tracking referencing rules. Multiple Rule Units within an RSF (538) may be utilized to describe a single object or operation. The RSF is used directly in many of the CTMPs. The UKF1 (855A) contains a Source Attributes (856B) sector which is a reference to an Index (856G) of a UKF3 (855C) instance. The UKF3 (855C) unit has a Timestamp section but not a Source Attributes section, the inverse of the UKF1 (855A). This is because the UKF3 (855C) stores the Source Attributes (856E and 856B) contents in the Value (856H) sector of the RSF (538). The source attribute is a complex collection of data that traces the source of the requested information. Such sources are given a status of trustworthiness and reliability due to the confirmation and negation factors processed in the KCA (816D). Therefore, a UKF cluster (854F) consists of a chain of linked UKF variants to define information (where time and source are dynamically defined) separated by jurisdiction. In summary: UKF2 (855B) contains the primary target information. UKF1 (855A) contains timestamp information, so the timestamp field itself is omitted to avoid infinite regress. UKF3 855C contains source attribute information, so the source field itself is omitted to avoid infinite regress. Every UKF2 (855B) must be accompanied by at least one UKF1 (855A) and one UKF3 (855C), otherwise the cluster (sequence) is considered incomplete and the information cannot yet be processed by the general logic (859) affecting the entire LOM system. There may be a UKF2 (855B) unit acting as a bridge between the central UKF2 (855B) (containing the centralized information) and its UKF1 (855A) and UKF3 (855C) units. A series of UKF clusters (854D) are processed by the KCA (816D) to form a derived assertion (854B). Similarly, a series of UKF clusters (854E) are processed by the KCA (816D) to form a derived assertion (854C). Knowledge Corroboration Analysis (KCA) (816D) is where the UKF clustered information is compared to obtain corroborative evidence regarding the original attitude. This algorithm considers the reliability of the attributed source, such as when such an assertion is made, and whether it negates the evidence. Thus, after the KCA (816D) processing is completed, the CKR (806) can output a position that presents an opinion on the topic (854A). CKR (806) never deletes information, even information that is determined to be false, because it can be useful in distinguishing truth from falsehood in the future. Therefore, CKR (806) runs an advanced storage space service (854G) that can handle and expand the infinitely growing data set of CKR (806).

도 139는 LOM의 일반적인 평가 및 의사 결정 기능을 향상시키기 위해 지속적으로 CKR 806에 새로운 지식을 제공하려는 자동화된 연구 매커니즘(ARM)(805B)을 보여준다. 사용자 활동(857A)에 표시된 대로; 사용자가 사용 가능한 프론트 엔드를 통해 LOM과 상호 작용할 때 개념이 질문/ 주장에 응답/ 응답과 관련하여 직접 또는 간접적으로 가져온다. 사용자 활동(857A)은 CKR(806)이 낮거나 전혀 관련이 없는 개념을 궁극적으로 산출할 것으로 기대된다. 요청되었지만 사용 불가능한 개념 목록(857B)에 나와있다. 개념 분류 및 우선 순위(CSP)(821B); 개념 정의는 3 개의 독립적인 소스로부터 수신되고 정보 요청(IR)(812B)의 리소스(대역폭 등)를 우선하도록 집계된다. 이러한 모듈IR(812B)은 특정 소스를 얻기 위해 관련 소스에 액세스한다. 이러한 정보는 개념 유형에 따라 정의된다. 이러한 소스는 공개 뉴스 소스(857C)(공개 뉴스 기사, 즉 로이터 통신사, 뉴욕 타임즈, 워싱턴 포스트 등), 공개 데이터 아카이브(857D) (위키피디아, 쿼라 등 정보 집계 모음) 및 소셜 미디어857E (즉 페이스북, 트위터 피드 등). 이러한 정보 소스가 제공하는 데이터는 요청된 컨셉 정의에 따라 정보 집합자(IA)(821B)에서 수신 및 구문 분석된다. 검색 시간, 검색 소스와 같은 관련 메타 데이터가 유지된다. 그 후, 정보는 상호-참조 분석(CRA)(814B)으로 보내지고, 여기서 수신된 정보는 CKR(806)으로부터의 선재 지식과 비교되고 구성된다. 이것은 CKR(806)이 현재 알고 모르는 것에 따라 새로운 들어오는 정보가 평가된다. 문체분석 스캐닝(SS)(808B)은 CRA(814B)가 문체 분석 서명을 고려하여 CKR(806)의 기존 지식으로 새로운 정보를 흡수할 수 있게 해주는 보완 모듈이다. 누락된 종속성 개념(857F)는 논리적으로 초기 목표 개념을 이해하기 위한 기초로 이해하도록 요구되는 개념이다.(즉, 트럭 작동 방식을 이해하려면 먼저 디젤 엔진의 작동 방식을 연구하고 이해해야 한다.) 그러한 누락된 개념은 처리를 위해 CSP(821B)로 전송된다. 활동 개념(857G)목록은 CKR(806)에서 가장 활발한 것으로 랭킹 된 인기 있는 주제다. 이러한 개념(857G)는 창조적 개념 생성기(CCG)(820B)로 전송된 후 새로운 잠재적 개념을 생성하기 위해 창의적으로 일치된다(창조성 모듈(18)을 통해). 이 메커니즘은 이러한 혼합물 중 하나가 IR(812B)에 연결된 소스 857C, 857D, 857E의 새로운 정보 범위를 산출할 가능성에 달려 있다.FIG. 139 illustrates an automated research mechanism (ARM) (805B) that continuously provides new knowledge to CKR 806 to enhance the general evaluation and decision-making capabilities of LOM. As indicated by the user activity (857A); concepts are retrieved directly or indirectly in relation to questions/claims/answers as the user interacts with LOM through the available front end. It is expected that the user activity (857A) will ultimately yield concepts that are of low or no relevance to CKR (806). List of requested but unavailable concepts (857B). Concept classification and prioritization (CSP) (821B); Concept definitions are received from three independent sources and aggregated to prioritize resources (e.g. bandwidth) of the information request (IR) (812B). These modules IR (812B) access the relevant sources to obtain specific information. This information is defined based on the concept type. These sources include public news sources (857C) (public news articles, i.e., Reuters, The New York Times, The Washington Post, etc.), open data archives (857D) (aggregated collections of information, i.e., Wikipedia, Quora, etc.), and social media 857E (i.e., Facebook, Twitter feeds, etc.). Data provided by these information sources is received and parsed by an information aggregator (IA) (821B) according to the requested concept definition. Relevant metadata, such as search time and search source, are maintained. The information is then passed to a cross-reference analysis (CRA) (814B), where the received information is compared and organized with prior knowledge from the CKR (806). This evaluates new incoming information based on what the CKR (806) currently knows and does not know. Stylistic scanning (SS) (808B) is a complementary module that allows the CRA (814B) to absorb new information into the existing knowledge of the CKR (806) by considering the stylistically analyzed signatures. Missing dependency concepts (857F) are concepts that are logically required to be understood as a basis for understanding the initial target concepts (i.e., to understand how a truck works, one must first study and understand how a diesel engine works). Such missing concepts are sent to the CSP (821B) for processing. The list of active concepts (857G) is a popular topic ranked as most active in the CKR (806). These concepts (857G) are then sent to the Creative Concept Generator (CCG) (820B) where they are creatively matched (via the Creative Module (18)) to generate new potential concepts. This mechanism relies on the possibility that one of these mixtures will yield a new range of information from sources 857C, 857D, 857E connected to the IR (812B).

문체 문석의 사용 예:Examples of using the stylistic stone:

새로운 외국 데이터(858A)는 알려진 CNN 기자로부터 온 것으로 표시된다. 그러나 군사 견제 탱크의 서명과 매우 강한 문체 분석 매치가 일치한다. 따라서 내용은 주로 CKR(806) 내에서 군사적 사고 탱크에 기인했으며 CNN에서 나온 것으로 주장했다. 이것은 LOM 로직의 추후 실행을 위해 패턴 매칭과 음모 탐지를 추가로 가능하게 한다(예를 들어 CNN의 컨텐츠에 대한 미래의 주장을 불신). 주장 내용, 충돌 및 바이어스 평가는 그 내용이 마치 CNN이 아닌 싱크 탱크에서 온 것처럼 평가된다.The new foreign data (858A) is marked as coming from a known CNN reporter. However, it matches the signature of the military think tank and a very strong stylistic analysis match. Therefore, the content is primarily attributed to the military think tank within CKR (806) and is claimed to come from CNN. This allows for additional pattern matching and conspiracy detection for later execution of LOM logic (e.g. discrediting future claims about CNN content). The content, conflict, and bias assessments are evaluated as if the content came from a think tank rather than CNN.

도 140은 (시스템이 아직 노출되지 않은)새로운 외부 컨텐츠의 문체 분석 서명(858C)을 분석하는 문체 분석 스캐닝(SS)(808)을 도시한다. 문체 분석(Styleometry)은 한 작가 또는 장르와 다른 작가 사이의 문학적 스타일 변화에 대한 통계 분석이다. 이는 데이터 / 주장에 대한 소스 기대치를 추적하는 데있어 CKR(806)을 보조하며, 이는 LOM이 입증된 주장을 검출하는데 더 도움이 된다. 새로운 외부 데이터(858A)의 서명 결론(SC)(819B) 내용 출처 속성은 문체분석 서명(858C)의 주요 일치 사항의 영향을 받는다. 문체 분석 매치 일치가 강할수록 스타일 측정에 따른 소스 속성이 강해진다. 서명 쿼리(SQ)(807B)의 경우, 문체분석 서명(858C)는 SI(813B)의 알려진 모든 서명과 일치한다. 모든 중요한 그라디언트의 일치가 기록된다. 서명 인덱스(SI)(813B)는 CKR (806)으로부터 검색된 것으로 알려진 모든 문체문석 서명(858C)의 리스트를 나타낸다. 제 3 문체 분석 알고리즘(858B)으로 대표되는 LOM은 정식으로 선택된 진보적이고 효과적인 알고리즘 문체분석 알고리즘에 의존한다.FIG. 140 illustrates Stylistic Scanning (SS) (808) analyzing the stylistic signature (858C) of new external content (not yet exposed to the system). Stylistic analysis is the statistical analysis of literary style variations between one author or genre and another. It assists the CKR (806) in tracking source expectations for data/claims, which further aids the LOM in detecting substantiated claims. The content source attribution of the signature conclusion (SC) (819B) of the new external data (858A) is influenced by the primary match of the stylistic signature (858C). The stronger the stylistic match, the stronger the source attribution by style measurement. For the signature query (SQ) (807B), the stylistic signature (858C) matches all known signatures of the SI (813B). All significant gradient matches are recorded. The Signature Index (SI) (813B) represents a list of all stylistic signatures (858C) known to have been retrieved from CKR (806). LOM, represented by the third stylistic analysis algorithm (858B), relies on a formally selected progressive and efficient algorithmic stylistic analysis algorithm.

도 141은 주장 또는 질문의 형태로 명제를 수신하고 그러한 명제와 관련된 개념의 출력을 제공하는 추정 중단 시스템(AOS)(815B)를 도시한다. 개념 정의 매칭(CDM; Concept Definition Matching)(803B)은 인간 주체(800)에서 제공하는 하드 코딩된 가정(858D)이 의존성 해석(DI; Dependent Interpretation)(816B)모듈에 대해 쿼리되는 곳이다. 그러한 모든 개념은 위반 우려로 윤리적 사생활보호 법(EPL)(811B)에 의해 검사된다. 의존성 해석(DI)(816B) 모듈에서 요청된 데이터의 응답을 충족시키는 모든 지식 기반 종속성에 액세스한다. 이렇게 하면 객관적인 의견을 지닌 정보의 완전한 '나무(tree)'가 검색된다. 요청된 데이터(858E)는 LOM 전체 시스템에 미치는 일반 논리(859)가 요청한 데이터로서 특정 쿼리인지 조건부 쿼리인지를 나타낸다. 특정 쿼리는 정확히 표시된 정보 세트를 찾는다. 조건부 쿼리는 특정 조건과 일치하는 모든 정보를 요청한다.FIG. 141 illustrates an Assumption Stopping System (AOS) (815B) that receives propositions in the form of assertions or questions and provides output of concepts related to those propositions. Concept Definition Matching (CDM) (803B) is where hard coded assumptions (858D) provided by the human subject (800) are queried against the Dependent Interpretation (DI) (816B) module. All such concepts are checked for Ethical Privacy Law (EPL) (811B) violation concerns. The Dependency Interpretation (DI) (816B) module accesses all knowledge-based dependencies that satisfy the response of the requested data. This retrieves a complete 'tree' of information with objective opinions. The requested data (858E) represents the data that the general logic (859) that affects the entire LOM system requests, whether it is a specific query or a conditional query. A specific query looks for a set of information that is precisely represented. A conditional query requests all information that matches specific conditions.

도 142는 지능형 정보 및 구성 관리(I2CM)(804E) 및 관리 콘솔(804D)을 도시한다. 집합체(860A)는 여러 플랫폼의 정보 스트림을 병합 및 태깅하면서 중요하지 않은 정보와 중복 정보를 필터링하기 위해 일반적인 레벨 기준을 사용한다. 위협 딜레마 관리(860B)는 개념적 데이터 위험이 조감도에서 감지되는 곳이다. 이러한 위협은 그래픽으로 표현하기 위해 관리 콘솔로 전달된다. 위협 메커니즘과 관련된 계산된 측정 값이 마침내 여러 플랫폼에서 통합되므로, 보다 정보에 입각한 위협 관리 결정을 자동으로 수행 할 수 있다. 자동화된 컨트롤(860C)는 MNSP(9), 신뢰 플랫폼(860Q), 제3 서비스(860R)의 관리 관련 컨트롤을 제어하는 알고리즘 액세스를 나타낸다. 관리 피드백 컨트롤(860D)은 모든 MNSP(9) 클라우드, 신뢰 플랫폼(TP)(860Q), 및 정책 수립, 법의학, 위협 조사를 용이하게 하는 데 사용할 수 있는 추가적 3 차 서비스(860R) 기반 서비스의 고급 컨트롤을 제공한다. 이러한 관리 제어(860D)는 결국 적절한 사용자 정의 가능한 비주얼 및 표현 효율성으로 관리 콘솔(MC)(804D)에 표시된다. 이를 통해 단일 인터페이스에서 직접 전체 시스템(MNSO, TP, 3PI)을 효율적으로 제어하고 조작할 수 있어 필요에 따라 세부 사항을 확대 할 수 있다. 수동 제어(860E)는 인간의 액세스를 위해 MNSP(9), 신뢰 플랫폼(860Q) 및 제3 서비스(860R)의 관리 관련 제어를 컨트롤한다. 지능적 맥락화 860F 단계에서 나머지 데이터는 이제 아일랜드의 클러스터처럼 보인다. 각 아일랜드은 개념적 데이터 위험이다. 개념 분석을 성숙시키기 위해 플랫폼 간의 상관 관계가 만들어진다. 위험한 패턴을 이해하기 위해(I2GE(21)에서 LIZARD로) 역사적 데이터에 액세스하고, CTMP(22)는 비판적 사고 분석에 사용된다. 구성 및 배포 서비스(860G)는 올바른 개념 데이터 구성 및 연결 설정으로 새로운 기업 자산(컴퓨터, 랩톱, 휴대폰)을 배포하기 위한 인터페이스이다. 장치를 추가하고 설정 한 후에는 관리 피드백 컨트롤(860D)을 중개자로 하여 관리 콘솔(MC)(804D)을 통해 조정할 수 있다. 또한 이 서비스는 새로운 고객 / 클라이언트 사용자 계정의 배포를 관리한다. 이러한 배포에는 하드웨어와 사용자 계정, 인터페이스 사용자 정의, 고객 / 클라이언트 변수 목록(예: 비즈니스 유형, 제품 유형 등)이 포함될 수 있다. 관할 구역에 의한 분리(860H)는 정보의 태그 풀은 MC(804D) 사용자의 관할권에 따라 독점적으로 분리된다. 위협에 의한 분리(Separation by Threat)(860I) 정보는 개별 위협(즉, 개념적 데이터 위험)에 따라 구성된다. 모든 유형의 데이터는 위협에 연관되어 표시되며 자세한 정보가 추가되거나 제거된다. 직접 관리(860J)는 MC(804D) 사용자가 수동 제어 장치(860E)를 통해 관리 피드백 제어 장치(860D)에 연결하기 위한 인터페이스이다. 카테고리 & 관할 구역(860H)에서는 MC(804D) 사용자가 자신의 관할 구역과 정보 카테고리 액세스 범위를 정의하는 로그인 자격 증명을 사용한다. 모든 잠재적인 데이터 벡터(860L)은 동작중인 데이터, 휴식중인 데이터 및 사용중인 데이터를 나타낸다. 사용자 정의 가능한 비주얼(860M)은 회계, 금융, 인사, IT, 법률, 보안 / 감찰사, 개인 정보 보호 / 공개, 노조 등 다양한 기업 부서 및 이해 관계자 (각 부서의 임원, 관리자, 임원) 파티 파트너, 법 집행 기관 등이다. 개념적 데이터의 모든 측면에 대한 통합보기(860N)은 경계, 기업, 데이터 센터, 클라우드, 이동식 미디어, 모바일 장치 등을 나타낸다. 통합 단일 뷰(860O)는 모니터링, 로깅, 보고, 이벤트 상관, 경고 처리, 정책 / 규칙 세트 작성, 수정 작업, 알고리즘 튜닝, 서비스 제공(신규 고객 / 수정), 신뢰 플랫폼은 물론 제3 서비스(제3 서비스 제공 업체 및 공급 업체로부터 보고서 및 경고 / 로그 수신 등)를 제공한다. 개념 데이터 팀(Conceptual Data Team)(860P)는 여러 시스템의 활동 및 상태를 모니터하는 자격을 갖춘 전문가 팀이다. 지능형 정보 처리 및 인공 지능(AI) 결정이 이루어지고 있기 때문에 적은 수의 경험으로 적은 인력을 고용함으로써 비용을 절감 할 수 있다. 팀의 주요 목적은 대규모 분석 포인트를 수행하는 동안 시스템이 원하는 기준에 따라 성숙하고 진행 중임을 확인하는 대체 단계가 되는 것이다.Figure 142 illustrates the Intelligent Information and Configuration Management (I2 CM) (804E) and the Management Console (804D). The Aggregation (860A) uses common level criteria to filter out non-critical and redundant information while merging and tagging information streams from multiple platforms. Threat Dilemma Management (860B) is where conceptual data risks are detected from a bird's eye view. These threats are then passed to the Management Console for graphical representation. Computed metrics associated with threat mechanisms are finally integrated across multiple platforms, allowing for more informed threat management decisions to be made automatically. Automated Controls (860C) represent algorithmic access to control management-related controls of the MNSP (9), the Trust Platform (860Q), and the Third Party Service (860R). The Management Feedback Controls (860D) provide advanced control of all MNSP (9) clouds, Trust Platform (TP) (860Q), and additional 3rd Party Services (860R) based services that can be used to facilitate policy formulation, forensics, and threat investigation. These Management Controls (860D) are ultimately presented in the Management Console (MC) (804D) with appropriate customizable visual and presentational efficiency. This allows for efficient control and manipulation of the entire system (MNSO, TP, 3PI) directly from a single interface, with the ability to zoom in on details as needed. The Manual Controls (860E) control the management related controls of the MNSP (9), Trust Platform (860Q) and 3rd Party Services (860R) for human access. In the Intelligent Contextualization 860F phase, the remaining data now looks like a cluster of islands. Each island is a conceptual data risk. Correlations are created between the platforms to mature the conceptual analysis. To understand risk patterns (from I2 GE (21) to LIZARD), historical data is accessed and CTMP (22) is used for critical thinking analysis. The Configuration and Deployment Service (860G) is an interface for deploying new enterprise assets (computers, laptops, mobile phones) with the correct conceptual data configuration and connection settings. After the devices are added and configured, they can be coordinated through the Management Console (MC) (804D) with the Management Feedback Control (860D) as an intermediary. This service also manages the deployment of new customer/client user accounts. These deployments can include hardware and user accounts, interface customizations, and lists of customer/client variables (e.g., business type, product type, etc.). Separation by Jurisdiction (860H) separates the tag pool of information exclusively based on the jurisdiction of the MC (804D) user. Separation by Threat (860I) information is organized based on individual threats (i.e., conceptual data risks). All types of data are associated with threats and detailed information is added or removed. Direct Management (860J) is the interface for MC (804D) users to connect to the Management Feedback Control Unit (860D) via the Manual Control Unit (860E). Categories & Jurisdictions (860H) use login credentials that MC (804D) users use to define their jurisdictions and information category access scopes. All potential data vectors (860L) represent data in motion, data at rest and data in use. Customizable visuals (860M) represent various corporate departments and stakeholders (executives, managers, officers of each department) such as accounting, finance, human resources, IT, legal, security/auditor, privacy/disclosure, unions, party partners, law enforcement, etc. Unified views (860N) of all aspects of conceptual data represent perimeter, enterprise, data center, cloud, removable media, mobile devices, etc. The Unified Single View (860O) provides monitoring, logging, reporting, event correlation, alert handling, policy/rule set authoring, remediation actions, algorithm tuning, service delivery (new customers/revisions), trust platform as well as 3rd party services (receiving reports and alerts/logs from 3rd party service providers and suppliers, etc.). The Conceptual Data Team (860P) is a team of qualified experts who monitor the activity and status of multiple systems. Since intelligent information processing and artificial intelligence (AI) decisions are being made, costs can be reduced by hiring fewer people with less experience. The main purpose of the team is to be an alternative step to ensure that the system is mature and on track to the desired criteria while performing large-scale analysis points.

도 143은 개인의 개인 정보가 다수의 잠재적 엔드 포인트 및 프론트 엔드를 통해 저장되는 개인적인 지능 프로필(PIP)(802C)을 도시한다. 그들의 정보는 CKR(806)으로부터 매우 안전하고 격리되어 있지만 LOM 전체 시스템에 미치는 일반 논리(859)에서 매우 개인화된 의사 결정을 수행 할 수 있다. 개인적 인증 및 암호화(PAE; Personal Authentication & Encryption)(803C)를 구현함으로써 들어오는 데이터 요청은 올바른 사용자가 독점적으로 개인 정보에 액세스 할 수 있도록 먼저 인증 해야 한다. 인공 지능 어플리케이션과 관련된 개인 정보는 암호화되어 UKF형식의 개인적 클러스터 풀(815C)에 저장된다. 정보 익명화 처리(IAP)(816C) 정보는 개인 식별 정보를 제거한 후 CKR(806)에 보충된다. 이러한 개인 정보가 데이터 스트림에서 제거된 후에도 IAP(816C)는 개인의 신원을 확인하기 위해(포렌식 탐지 작업과 같이) 리버스 엔지니어링 될 수 있는 너무 많은 병렬 데이터가 제공되는 것을 방지하려고 시도한다. 수신된 상호 참조 분석(CRA)(814B) 정보는 CKR(806)으로부터의 선재 지식을 고려하여 비교되고 구성된다. 이것은 새로운 들어오는 정보가 CKR(806)이 현재 알고 있고 모르는 것에 따라 평가되고 유효화 될 수 있게 한다. 임의의 데이터 요청 정보는 항상 CKR(806)으로부터 액세스된다. 데이터 요청에 개인적인 기준이 있는 경우 PIP(802C)는 개인 및 일반 데이터 병합(PGDM)(813C)를 통해 참조되며 주요 CKR(806) 지식을 기반으로 한다.Figure 143 illustrates a Personal Intelligence Profile (PIP) (802C) where an individual's personal information is stored across a number of potential endpoints and front ends. Their information is kept highly secure and isolated from the CKR (806) but can perform highly personalized decision making in the general logic (859) that affects the entire LOM system. By implementing Personal Authentication & Encryption (PAE) (803C), incoming data requests must first be authenticated to ensure that the correct user has exclusive access to the personal information. Personal information associated with the AI application is encrypted and stored in a UKF format personal cluster pool (815C). Information Anonymization Process (IAP) (816C) information is supplemented to the CKR (806) after removing personally identifiable information. Even after this personal information is removed from the data stream, the IAP (816C) attempts to prevent too much parallel data from being presented that could be reverse engineered to identify the individual (such as for forensic detection tasks). The received Cross Reference Analysis (CRA) (814B) information is compared and organized taking into account prior knowledge from the CKR (806). This allows new incoming information to be evaluated and validated based on what the CKR (806) currently knows and does not know. Any data request information is always accessed from the CKR (806). If the data request has a personal criterion, the PIP (802C) is referenced via the Personal and General Data Merge (PGDM) (813C) and is based on the primary CKR (806) knowledge.

도 144는 생활 습관 및 격리된 사건에 대한 작업을 자동화하는 응집력 있는 플랫폼에서 다양한 인터넷 가능 장치 및 서비스를 연결하는 생활 관리 및 자동화(LAA)(812D)를 보여준다. 적극적 의사 결정(ADM)(813D)은 LAA(812D)의 핵심 논리이며 FARM(814D)에 따라 사용 가능한 지출 규칙 및 금액, 프런트 엔드 서비스(861A), 백 엔드 서비스(861B), IoT 장치(862A)의 가용성 및 기능을 고려한다. 자금 조달 규칙& 관리(FARM)(814D)를 통해 인적 자원은 ADM(813D)에 활동의 관할권을 알리기 위해 이 모듈의 기준, 범위 및 범위를 수동으로 정의한다. 인간 주체(800)는 디지털 지갑(Digital Wallet)(861C)에 수동적으로 암호화된 화폐 자금(즉, 비트 코인(Bitcoin))을 입금함으로써 LAA(812D)가 소비 할 수 있는 금액의 상한선을 의미한다. IoT 상호 작용 모듈(IIM)(815D)는 IoT 장치(862A)가 인간에게 제공되는 데이터베이스를 유지 관리한다. 인증 키들 및 메커니즘들은 IoT 장치들(862A)의 보안 제어(862C)를 가능하게 하기 위해 여기에 저장된다. 제품 제조업체/ 개발자(861F)는 LAA(812D)에 프로그래밍 가능한 API (어플리케이션 프로그래밍 인터페이스) 엔드 포인트들을 IoT 제품 상호 작용 프로그래밍(861E)으로 제공한다. 이러한 엔드 포인트는 IoT 상호작용 모듈(IIM)(815D)에서 특별히 사용된다. 데이터 피드(862B)는 IoT 가능 디바이스(862A)가 정보를 LAA(812D)로 전송하여 지능형 및 자동화된 동작이 수행 될 수 있을 때를 나타낸다. 예: 온도를 알려주는 온도 조절 장치, 우유 재고를 알려주는 냉장고. 장치 컨트롤(862C)는 IoT 가능 디바이스(862A)가 동작을 수행하기 위해 LAA(812D)로부터 명령을 수신 할 때를 나타낸다. 예: 에어컨의 전원을 켜고, 소포 배달을 위한 문을 열기. 프런트 엔드 서비스(861A)의 카테고리는 다음을 포함 할 수 있다:FIG. 144 illustrates a Life Management and Automation (LAA) (812D) that connects various internet-enabled devices and services into a cohesive platform that automates tasks for lifestyle habits and isolated events. Active Decision Making (ADM) (813D) is the core logic of the LAA (812D) and takes into account available spending rules and amounts, front-end services (861A), back-end services (861B), and availability and capabilities of IoT devices (862A) as per FARM (814D). Through Funding Rules & Management (FARM) (814D), human resources manually define the criteria, scope and extent of this module to inform the ADM (813D) of the jurisdiction of the activity. The human subject (800) passively deposits encrypted currency funds (i.e., Bitcoin) into a Digital Wallet (861C), thereby implying an upper limit on the amount that the LAA (812D) can spend. The IoT Interaction Module (IIM) (815D) maintains a database of what the IoT device (862A) presents to humans. Authentication keys and mechanisms are stored here to enable security control (862C) of the IoT devices (862A). The product manufacturer/developer (861F) provides programmable API (Application Programming Interface) endpoints to the IoT Product Interaction Programming (861E) to the LAA (812D). These endpoints are specifically used by the IoT Interaction Module (IIM) (815D). The data feed (862B) represents when the IoT enabled device (862A) transmits information to the LAA (812D) so that intelligent and automated actions can be performed. Examples: a thermostat indicating temperature, a refrigerator indicating milk inventory. The device control (862C) represents when the IoT enabled device (862A) receives a command from the LAA (812D) to perform an action. Examples: turn on an air conditioner, open a door for package delivery. Categories of front-end services (861A) may include:

- 인공 지능의 개인 비서- Personal assistant of artificial intelligence

- 통신 어플리케이션 및 프로토콜- Communication applications and protocols

- 홈 자동화- Home Automation

- 의료용 인터페이스- Medical interface

- 배달 추적 서비스- Delivery tracking service

백 엔드 서비스(861B)의 예는 다음을 포함 할 수 있다:Examples of backend services (861B) may include:

- 아마존 온라인 주문- Amazon online ordering

- 우버(Uber) / 수송 기관- Uber / Transportation

- 의료 처방전- Medical Prescription

LAA(812D)의 기능을 설명하기 위한 전반적인 사용 예는 다음과 같다:A general usage example to illustrate the functionality of LAA(812D) is as follows:

IoT 가능 냉장고는 우유가 부족하다는 것을 감지한다. LOM은 우유(전유, full fat milk)를 마시지 않으면 피험자의 기분이 더 부정적인 경향이 있다는 감성 지능을 통해 분석을 실시한다. LOM은 환자의 생활상의 위험 및 이점을 평가한 후 온라인 배달 서비스(즉 아마존)에서 우유를 주문한다. LOM은 추적 번호를 통해 우유 선적을 추적하고 주택 정문을 열어 주택 소유지 내에서 배달되도록 한다. LOM은 배달원이 출발 한 후에 문을 닫고, 배달원이 악의적인 행위자인 경우 보안상의 주의를 기울인다. 그 후 손재주 기능이 있는 간단한 바퀴 달린 로봇이 우유를 집어 냉장고에 넣고 차갑게 유지하며 상하지 않도록 한다.The IoT-enabled refrigerator detects that it is low on milk. LOM uses emotional intelligence to analyze that subjects tend to feel more negative if they do not drink milk (full fat milk). After assessing the risks and benefits to the patient’s life, LOM orders milk from an online delivery service (i.e. Amazon). LOM tracks the milk shipment via a tracking number and unlocks the front door to ensure delivery within the home’s premises. LOM closes the door after the delivery person has left, taking security precautions in case the delivery person is a malicious actor. A simple wheeled robot with dexterity capabilities then picks up the milk and places it in the refrigerator to keep it cold and prevent spoilage.

도 145는 비 윤리적 및/ 또는 불법적인 자료를 확인하기 위해 사용자의 개인 식별 가능 데이터 요청을 모니터하는 행동 모니터링(BM)(819C)을 보여준다. 메타 데이터 집합(MDA; Metadata Aggregation)(812C) 사용자 관련 데이터는 외부 서비스에서 집계되어 사용자의 디지털 신원(즉, IP 주소, MAC 주소 등)을 설정할 수 있다. 이러한 정보는 유도(820C) / 추론(821C)으로 전송되고, 결국 PCD(807C)로 전송되며, 정교한 분석은 MNSP(9)의 뒷받침 요인으로 수행된다. 예 : amazon.com 쇼핑 포털과 프론트 엔드로 인터페이스하는 사용자는 보안 목적으로 LOM의 행동 모니터링(BM)(819C)로 IP 주소를 전달한다. PIP 802C로 예정된 인증 된 사용자의 모든 정보는 정보 추적(IT)(818C)을 거쳐 행동 블랙리스트(864A)와 대조된다. 예: 사용자가 유황의 화학적 조성에 대해 질문한다. 블랙리스트(863B)의 요소와 (부분적으로 또는 전체적으로)일치하는 정보는 IT(818C)에서 유도(820C) 및 추론(821C)으로 전송된다. 프리 크라임 검출(PCD; Pre-Crime Detection)(807C)에서 추론 및 유도 정보가 병합되어 범죄 전 결론을 분석한다. 상당한 양의 확증이 탐지되면 사용자의 문제가 되는 정보와 알려진 신원이 법 집행 기관에 전달된다. PCD(807C)는 행동 블랙리스트(864A)를 직접 참조하는 CTMP(22)를 사용하여 유도(820C) 및 추론(821C)에 의해 생성된 입장을 검증한다. 블랙리스트 유지관리 기관(BMA)(817D)은 MNSP(9)의 클라우드 서비스 프레임 워크 내에서 작동한다. BMA(817D)는 범죄 예방 및 범죄자 포착을 위해 사용자 모니터링이 필요한 위험 개념을 정의한 행동 블랙리스트(864A)를 발행 및 유지한다. 또한 BMA(864B)는 민감한 자료에 플래그를 지정하여 LOM에 의한 질의 결과로 제출되지 않도록 EPL(윤리적 사생활보호 법) 블랙리스트(864B)를 발급 및 유지한다. 민감한 자료에는 유출된 문서, 개인 정보(예: 주민 등록 번호, 여권 번호 등)가 포함될 수 있다. BMA(864B)는 윤리, 사생활 및 법적(즉, 사이버 보안 정책, 허용되는 사용 정책, HIPAA, PII 등)과 관련하여 관련 법률 및 정책을 해석한다. 블랙리스트는 대개 이러한 개념과 관련이 있는 경우 의심스러운 것으로 간주되는 트리거 개념으로 구성된다. 블랙리스트는 특정 개인 및 / 또는 원하는 목록과 같은 조직을 대상으로 할 수도 있다. 미래의 범죄 예방은 BM(819C) 내에서 발생하며 MNSP(9)로 확인 된 증거가 있다. 법 집행 권한(864C)은 MNSP(9) Cloud를 통해 BMA(817D)에 연결하여 블랙리스트 개념에 대한 정보를 제공하고 BM (819C)의 PCD(807C)의 범죄 탐지 결과로부터 정보를 제공받을 수 있다. 행동 모니터링 정보 확인(864D)은 MNSP(9)가 뒷받침 목적으로 BM(819C)에 행동 모니터링 정보를 제공 할 수 있게 한다. 윤리적 사생활보호 법(EPL)(811B)은 MSNP에서 사용자 지정 블랙리스트를 받고 AOS(815B)를 사용하여 비 윤리적인 개인 정보 보호 및 / 또는 불법 자료가 포함된 주장을 차단한다.FIG. 145 illustrates a behavior monitoring (BM) (819C) that monitors a user's personally identifiable data requests to identify unethical and/or illegal material. Metadata Aggregation (MDA) (812C) user-related data may be aggregated from external services to establish the user's digital identity (i.e., IP address, MAC address, etc.). This information is sent to induction (820C)/inference (821C) and eventually to the PCD (807C) for sophisticated analysis as a back-up factor to the MNSP (9). For example: A user interfacing with the amazon.com shopping portal and front-end passes their IP address to the LOM's behavior monitoring (BM) (819C) for security purposes. All information of an authenticated user scheduled for PIP 802C is passed through Information Tracking (IT) (818C) and checked against a behavior blacklist (864A). For example: A user asks about the chemical composition of sulfur. Information matching (partially or fully) the elements of the blacklist (863B) is transmitted from IT (818C) to induction (820C) and inference (821C). In the Pre-Crime Detection (PCD) (807C), the inference and induction information are merged to analyze the pre-crime conclusion. If a significant amount of corroboration is detected, the user's problematic information and known identity are forwarded to law enforcement. The PCD (807C) verifies the positions generated by the induction (820C) and inference (821C) using the CTMP (22) which directly references the behavioral blacklist (864A). The Blacklist Maintenance Authority (BMA) (817D) operates within the cloud service framework of the MNSP (9). The BMA (817D) issues and maintains a behavioral blacklist (864A) which defines risk concepts that require user monitoring for crime prevention and criminal detection. Additionally, the BMA (864B) issues and maintains an Ethical Privacy Protection (EPL) Blacklist (864B) to flag sensitive material to prevent it from being submitted as a result of a query by the LOM. Sensitive material may include leaked documents, personal information (e.g., social security numbers, passport numbers, etc.). The BMA (864B) interprets relevant laws and policies with respect to ethics, privacy, and legal (i.e., cybersecurity policy, acceptable use policy, HIPAA, PII, etc.). The blacklist is typically comprised of trigger concepts that are deemed suspicious when associated with these concepts. The blacklist may also target specific individuals and/or organizations such as wish lists. Future crime prevention occurs within the BM (819C) and there is evidence identified by the MNSP (9). Law enforcement authorities (864C) can connect to the BMA (817D) via the MNSP (9) Cloud to provide information on the blacklist concept and receive information from the criminal detection results of the PCD (807C) of the BM (819C). Behavioral monitoring information verification (864D) allows the MNSP (9) to provide behavioral monitoring information to the BM (819C) for support purposes. The Ethical Privacy Protection Act (EPL) (811B) receives a custom blacklist from the MSNP and uses the AOS (815B) to block claims containing unethical privacy and/or illegal material.

도 146은 윤리적 사생활보호 법(EPL)(811B)이 MSNP에서 사용자 정의 블랙리스트를 수신하고 AOS(815B)를 사용하여 비 윤리적 인 개인 정보 보호 및 / 또는 불법적인 자료가 포함된 주장을 차단하는 것을 보여준다. MNSP(9)는 트로이 목마, 바이러스 등을 통한 해킹 시도와 같은 전통적인 보안 위협을 처리하는 데 사용된다. LOM의 BM(819C) 및 EPL(811B) 모듈은 윤리, 개인 정보 보호 및 법적 영향을 결정하기 위해 유도(820C) 및 추론(821C)을 통해 개념 데이터의 문맥을 분석한다.Figure 146 shows the Ethical Privacy Protection Law (EPL) (811B) receiving a user-defined blacklist from MSNP and using AOS (815B) to block claims containing unethical privacy and/or illegal material. MNSP (9) is used to address traditional security threats such as hacking attempts via Trojans, viruses, etc. The BM (819C) and EPL (811B) modules of LOM analyze the context of the concept data through induction (820C) and inference (821C) to determine ethical, privacy and legal implications.

도 147은 LIZARD 알고리즘의 개요를 도시한다. 동적 쉘(DS)(865A)은 반복을 통해 변경되기 쉬운 LIZARD의 계층이다. 그 목적을 달성하기 위해 고도의 복잡성을 필요로 하는 모듈은 대개 여기에 속한다. 프로그래머 팀이 처리 할 수 있는 복잡성 수준을 능가 할 것이기 때문이다. 구문 모듈(SM)(865B)은 컴퓨터 코드를 읽고 쓰는 데 필요한 프레임 워크이다. 쓰기를 위해; PM으로부터 복잡한 형식화된 목적을 수신한 다음 임의의 코드 구문으로 코드를 작성한 다음 도우미 기능이 임의의 코드를 실제 실행 코드(원하는 언어에 따라 다름)로 변환 할 수 있다. 읽기 위해; 그러한 코드의 기능을 위한 목적을 도출하기 위해 PM(865E)에 대한 코드의 구문 해석을 제공한다. LIZARD가 낮은 신뢰 결정을 수행하면 LIZARD의 향후 반복을 개선하기 위해 관련 데이터를 데이터 리턴 릴레이(DRR)(865C)를 통해 ACT(866)에 중계한다. LIZARD 자체는 의사 결정을 수행하는데 데이터에 직접 의존하지 않지만 진화하는 위협에 대한 데이터는 LIZARD의 향후 반복이 수행 할 수 있는 선험적 결정에 간접적으로 도움이 될 수 있다. ACT (Artificial Concept Threat) (866)는 가상화 된 개념적 데이터 위험을 가진 가상 테스트 환경을 만들어 반복 프로세스를 가능하도록 한다. ACT(866)의 인공적인 진화는 악의적인 개념 형성의 유기적 진화를 앞당기기에 충분하다. 반복 모듈(IM)(865D)은 SC(865F)를 사용하여 DRR(865C)의 '고정 목표' 및 데이터에서 정의된 목적에 따라 DS(865A)의 코드 기반을 구문적으로 수정한다. 이 수정된 버전의 LIZARD는 ACT(866)에 의해 여러 가지 및 다양한 개념적 데이터 위험 시나리오로 스트레스 테스트(병행)된다. 가장 성공적인 반복은 라이브 기능 버전으로 채택된다. 목적 모듈(PM)(865E)은 SM(865B)을 사용하여 코드에서 목적을 추출하고, 목적을 자신의 '복합 목적 형식'으로 출력한다. 그러한 목적은 SM(865B)에 의해 해석된 것처럼 코드 블록의 의도된 기능을 적절하게 기술해야 한다(비록 그 코드가 데이터에 은밀하게 포함된 경우라 할지라도). 정적 코어(SC)(865F)는 자동화된 반복을 통해 변경되는 부분이 가장 적은 LIZARD의 계층이며, 대신 인간 프로그래머가 직접 변경한다. 특히 가장 안쪽에 있는 어두운 사각형은 자동화된 반복에 전혀 영향을 받지 않는다. 이 가장 안쪽 층은 LIZARD의 방향과 전체 수용력을 안내하는 나무 뿌리와 같다.Figure 147 illustrates an outline of the LIZARD algorithm. The dynamic shell (DS) (865A) is a layer of LIZARD that is likely to change over time. Modules that require high complexity to achieve their goals usually fall here, as they will likely exceed the level of complexity that a team of programmers can handle. The syntax module (SM) (865B) is a framework for reading and writing computer code. For writing, it receives a complex, formalized purpose from the PM, then writes code in arbitrary code syntax, and then a helper function can translate the arbitrary code into actual executable code (depending on the desired language). For reading, it provides a syntactic interpretation of the code to the PM (865E) to derive the purpose for the function of such code. When the LIZARD makes a low confidence decision, it relays the relevant data to the ACT (866) via the data return relay (DRR) (865C) to improve future iterations of the LIZARD. LIZARD itself does not rely directly on data to make decisions, but data about evolving threats can indirectly help inform a priori decisions that future iterations of LIZARD can make. The Artificial Concept Threat (ACT) (866) enables an iterative process by creating a virtual test environment with virtualized conceptual data threats. The artificial evolution of the ACT (866) is sufficient to advance the organic evolution of malicious concept formation. The Iteration Module (IM) (865D) syntactically modifies the code base of the DS (865A) using the SC (865F) based on the 'fixed goals' of the DRR (865C) and the goals defined in the data. This modified version of LIZARD is then stress-tested (in parallel) by the ACT (866) with several and varied conceptual data threat scenarios. The most successful iteration is adopted as a live functional version. The Goal Module (PM) (865E) extracts goals from the code using the SM (865B) and outputs the goals in their own 'composite goal format'. Such a purpose should adequately describe the intended functionality of a block of code as interpreted by SM (865B) (even if that code is secretly embedded in the data). The static core (SC) (865F) is the layer of LIZARD that changes the least through automated repetition, and is instead directly modified by human programmers. In particular, the innermost dark rectangle is completely unaffected by automated repetition. This innermost layer is like the roots of a tree that guides the direction and overall capacity of LIZARD.

도 148는 개념적 데이터의 다양한 위험에 적응할 때 정적 규칙 집합이 성숙되는 방식을 설명하는 반복적인 지능 성장(I2GE(21)의 하위 집합)을 보여준다. 일련의 세대 별 규칙 집합이 생성되며, 이들의 진화는 '성격'특성 정의를 통해 전달된다. 이러한 룰 세트는 들어오는 개념적 데이터 피드를 처리하고 가장 바람직한 알림 및 수정 조치를 수행하는 데 사용된다. 개발 경로(867A)는 일관된 '성격'을 지닌 일련의 세대이다. CPU 시간이 진행됨에 따라 세대가 점점 더 동적으로 변한다. 초기 정적 룰 세트는 덜 우세하여 잠재적으로 지워지거나 무시된다. 예: 개발 경로 A는 엄격하고 신중한 특성을 가지고 있으며 용서 또는 용인이 거의 없다. 개념 행동(867B)는 개념적 데이터 분석가의 행동이 진화 경로(867A)에서 배울 수 있도록 처리되고 저장되는 곳이다. 예: 통로 A는 특정 상황과 성격 유형이 낙관적 인 개념 데이터 위험에 대한 많은 반응을 발견했다. 경로 A는 그런 행동을 모방한 규칙을 만든다. 인간(867C)은 진화적 체인을 시작하기 위한 초기 규칙 집합을 만드는 개념적 데이터 분석가를 나타낸다. 예: 암거래 시장에서 플루토늄 구매와 관련된 모든 개념이 차단되는 규칙이 정의된다. 경로 특성(867D)은 개념적 데이터 위험 유발 요인에 대해 실행되어야 하는 반동적 특성을 정의하는 변수 집합이다.Figure 148 illustrates an iterative intelligence growth (a subset of I2 GE(21)) that describes how a static rule set matures as it adapts to the various risks of conceptual data. A series of generational rule sets are generated, and their evolution is communicated through the definition of 'personality' characteristics. These rule sets are used to process the incoming conceptual data feed and perform the most desirable alerts and corrective actions. A development path (867A) is a series of generations with a consistent 'personality'. As CPU time progresses, the generations become more and more dynamic. The initial static rule set is less dominant and potentially erased or ignored. For example, development path A has strict and cautious characteristics and is rarely forgiving or accommodating. Conceptual behavior (867B) is where the behavior of the conceptual data analyst is processed and stored so that it can be learned from the evolution path (867A). For example, path A has discovered that many responses to conceptual data risks are optimistic in certain situations and personality types. Path A creates rules that mimic such behavior. Human (867C) represents a conceptual data analyst who creates an initial set of rules to start the evolutionary chain. For example, a rule is defined that all concepts related to purchasing plutonium on the black market are blocked. Path characteristics (867D) are a set of variables that define the reactive characteristics that should be executed on conceptual data risk triggers.

도 149 및 150은 병렬 진화 경로(867A)가 성숙되고 선택되는 방법인 반복 진화(I2GE(21)의 하위 집합)를 보여준다. 반복적인 세대는 동일한 ACT(866)에 적응하고, 최고의 성격 특성을 가진 통로는 가장 큰 개념의 위협에 저항한다. CPU 시간(868A)는 시간에 따른 CPU 전력의 측정 값이며 CPU 사이클 / 초 단위로 측정 할 수 있다. 진화론적 경로가 받는 노출의 양을 측정하기 위해 시간만 사용하는 것은 각 CPU의 코어 및 전력을 고려해야 하기 때문에 불충분하다. 예 : 인텔 팬티엄 3(Intel Pentium III)가 1000년 걸리는 요청을 처리하는데 인텔 해스웰(Intel Haswell) 프로세서가 30 분 정도 걸릴 수 있다. 가상 분리(Virtual Isolation)(868B)를 사용함으로써 모든 진화 경로는 사실상 격리되어 반복을 자신의 성격에 따라 결정한다. 예: 경로 B는 경로 C가 어려운 개념적 데이터 문제를 해결했음을 전혀 모르고 있으며 해결책을 계산하기 위해 자신의 개성과 학습된 데이터에 의존해야 한다. 특정 경로는 개념적 데이터 위험을 인식 할 수 없는 무기한 상태에 도달했기 때문에 868C에서 폐기 될 수 있다. 가장 가능성 있는 결과는 새로운 경로가 개성 있는 성격으로 만들어 져야 한다는 것이다. 예 : 경로 D는 100 시간의 CPU 시간 868A에 대한 개념적 데이터 위험을 인식하지 못했다. 따라서 전체 경로가 폐지되었다. 모니터링 / 상호 작용 시스템(868D)은 ACT(866) 시스템으로부터 개념 데이터 위험 트리거를 주입하고 개념 행동 클라우드로부터의 관련 개념 데이터 위험 응답을 모두 전달하는 플랫폼이다(모두 지정된 성격 특성에 따라). 예 : 모니터링 시스템은 경로 B에게 12 세대를 공식화하는 데 필요한 개념적 데이터 위험 응답을 제공했다. 인공 개념 위협(ACT)(866)은 일관된 개념 데이터 위험 환경을 제공하는 격리된 시스템이다. 분석가가 다양한 잠재 개념 데이터 응답 및 특성을 인식하도록 시스템을 연습하고 훈련시키는 개념 인식 훈련을 제공한다. 예 : ACT는 사람이 위험하다고 인식 할 수 있는 일련의 복잡한 개념을 제공했다. "가정용 재료를 사용하여 사린 가스를 화학적으로 합성하는 방법"와 같은. 실제 개념 위협(RCT)(869A)는 실제 데이터 로그에서 개념적 시나리오(869C) 실제 위협을 제공한다. 인간(867C) 모니터링 / 상호 작용 시스템(868D)에 직접 주문(869B)를 제공한다. 예: 통로를 수동으로 중단하고 경로 성격의 마스터 변수를 변경한다. 상호 참조 모듈(869D)는 개념적 위험(869C)와 개념 분석(867C)이 작성한 응답(869E) 사이의 분석적 브릿지이다. 의미있는 동작을 추출한 후 특성 태깅 모듈(869F)에 푸시한다. 개념적 위험(869C)은 실제 위험(869A) 또는 훈련(866)으로부터 올 수 있다. 특성 태깅 모듈(869F)은 성격 유형에 따라 모든 행동을 분할한다. 예: 개념적 데이터 분석가(867C)가 자살 방법론을 과도하게 언급한 이메일을 위험한 것으로 표시한 경우(869E), 이 모듈은 과거의 사건과의 행동 중복 때문에 이를 예방적 성격으로 표시했지만 분석가는 스스로 경고하는 경고자이기 때문에 이를 표시했다. 특성 상호 작용 모듈(869G)은 상이한 성격들 간의 상관 관계를 분석한다. 이 정보는 개념 행동(867B)으로 전달되며, 이는 모니터링/ 상호작용 시스템(868D)과 경로 자체로 전달된다. 예: 용서하지 않고 현실적인 성격은 사용량이 크게 중복되고 동일한 이벤트에 대해 비슷한 응답을 반환한다. 그러나 엄격하고 긍정적인 같은 사건에 대해 거의 비슷한 반응을 보이지 않는다.Figures 149 and 150 show iterative evolution (a subset of I2 GE (21)) in which parallel evolutionary paths (867A) mature and are selected. Iterative generations adapt to the same ACT (866), and the paths with the best personality traits resist the largest conceptual threats. CPU time (868A) is a measure of CPU power over time and can be measured in CPU cycles/second. Using time alone to measure the amount of exposure an evolutionary path receives is insufficient because it must also take into account the cores and power of each CPU. For example, it may take an Intel Haswell processor about 30 minutes to process a request that would take an Intel Pentium III 1000 years. By using Virtual Isolation (868B), all evolutionary paths are virtually isolated, allowing their iterations to determine their personality. Example: Path B has no idea that Path C has solved a difficult conceptual data problem and must rely on its own personality and learned data to compute a solution. A particular path may be abandoned at 868C because it has reached an indefinite state of not being able to recognize conceptual data hazards. The most likely outcome is that a new path must be created with a personality. Example: Path D failed to recognize conceptual data hazards for 100 hours of CPU time 868A. Therefore, the entire path is abandoned. The monitoring/interaction system (868D) is a platform that injects conceptual data hazard triggers from the ACT (866) system and delivers all relevant conceptual data hazard responses from the Concept Action Cloud (all based on the specified personality traits). Example: The monitoring system provided Path B with the conceptual data hazard responses it needed to formulate 12 generations. The Artificial Concept Threat (ACT) (866) is an isolated system that provides a consistent conceptual data hazard environment. It provides concept awareness training where analysts practice and train the system to recognize a variety of potential conceptual data responses and traits. Example: ACT provided a set of complex concepts that a human could perceive as dangerous. Such as "How to chemically synthesize sarin gas using household materials". The Real Concept Threat (RCT) (869A) provides a conceptual scenario (869C) real threat from real data logs. It provides direct orders (869B) to the human (867C) monitoring/interaction system (868D). For example, manually stop the passage and change the master variable of the path personality. The cross-reference module (869D) is an analytical bridge between the conceptual hazard (869C) and the response (869E) generated by the concept analysis (867C). After extracting meaningful behaviors, it pushes them to the feature tagging module (869F). The conceptual hazard (869C) can come from the real hazard (869A) or from the training (866). The feature tagging module (869F) segments all behaviors based on personality types. Example: If a conceptual data analyst (867C) flags an email as risky (869E) because it excessively mentions suicide methodology, this module would flag it as preventive because of the overlap in behavior with past events, but the analyst would flag it because he is an alerter who warns himself. The trait interaction module (869G) analyzes the correlation between different traits. This information is passed to the concept behavior (867B), which in turn passes it to the monitoring/interaction system (868D) and the pathway itself. Example: Unforgiving and Realistic traits have large overlap in usage and return similar responses to the same events. However, Strict and Positive traits rarely show similar responses to the same events.

도 151 내지 154는 이전 입력 양식에서 새로운 하이브리드 양식을 작성하는 지능형 알고리즘인 창조성 모듈(18)을 보여준다. 창조성(18)은 여러 알고리즘을 처리하기 위한 플러그인 모듈로 사용된다. 도면 부호 870A에서, 두 개의 상위 형식(이전 형식)이 하이브리드 형식(870B)을 생성하기 위해 지능적 선택(Intelligent Selector)으로 푸시된다. 이 양식은 추상적인 데이터 구조를 나타낼 수 있다. 예: 방식 A는 개념 DB에서 파생 된 위험 개념의 평균 모델을 나타낸다. 방식 B는 위험한 개념에 대응하는 방법에 대한 개념적 트리거 규칙 집합에 의한 새로운 정보 공개를 나타낸다. 방식 B의 정보는 방식 A가 나타내는 것보다 더 위험한 개념으로 생산된 혼합 양식을 허용한다. 지능적 선택(870B) 알고리즘은 새로운 기능을 선택하고 하이브리드 형식으로 병합한다. 예 : 방식 A는 개념 DB에서 파생된 개념적 데이터 위험의 평균 모델을 나타낸다. 방식 B는 사전 개념적 위험에 대응하는 방법에 대한 개념 룰 세트에 의한 새로운 정보 공개를 나타낸다. 방식 B의 정보는 양식 A가 나타내는 것보다 더 나은 개념 위험 유발 요인으로 생성된 혼합 양식을 허용한다. 모드(870C)는 창조성 모듈(18)이 사용되는 알고리즘의 유형을 정의한다. 이렇게 하면 지능적 선택(870B)은 사용중인 어플리케이션에 따라 병합에 적합한 부분을 알 수 있다. 예: 모드는 ACT(866)로 설정되므로 지능적 선택(870B)은 예상되는 입력 데이터가 위험 DB 표현(방식 A)이고 새로 발표된 정보가 개념 위험 트리거(방식 B)에 대한 룰 세트 반응을 상세히 알고 있음을 알고 있다. 속성 모드(870C)는 효과적인 하이브리드 형식을 생성하기 위해 새 데이터를 이전 데이터와 가장 잘 병합하는 방법에 대한 자세한 방법을 정의한다. 정적 기준(870D)은 방식을 병합하는 방법에 대한 일반적인 사용자 지정을 제공하는 개념적 데이터 분석가가 제공한다. 그러한 데이터는 모드(870C)가 선택되는 것에 달려있는 우선 순위 랭킹, 원하는 데이터 비율 및 병합을 유도하는 데이터를 포함 할 수 있다. 예: 모드(870C)가 ACT(866)로 선택된 경우 실패한 위험 트리거의 결과 정보는 위험 트리거 DB에 크게 영향을 주어 이러한 트리거의 구성을 크게 변경해야 한다. 그러한 변화 후에도 트리거가 계속 실패하면 트리거를 완전히 포기하라. 원시 비교(871B)는 개념적 데이터 분석가(867C)가 제공한 정적 기준(870D)에 따라 두 가지 수신 방식 모두에서 수행된다. 원시 비교가 수행된 후, 방식의 대부분은 정적 기준(870D)에 따라 호환되었다. 발견된 유일한 차이점은 방식 A가 정적 기준에 의해 '외부'로 표시된 응답을 포함한다는 것이다. 즉, 위험 트리거 DB 표현 방식 B는 방식 A에서 발견된 특정 예외를 포함하거나 나타내지 않는다. 순위 변경 중요성(871C)은 제공된 정적 조건(870D)에 따라 중요하고 중요하지 않은 변경을 순위 지정한다. 예: 방식 B로 표현되지 않은 방식 A에서 예외가 발견 되었기 때문에 정적 기준(870D)은 이 예외 사항이 매우 중요하다는 것을 인식하므로 혼합 양식에서 하이브리드 방식 AB를 생산하는 두드러진 수정이 이루어진다. 병합 모듈(871D)에서 동일하게 유지되고 다른 것으로 판명 된 것이 정적 표준(870D) 및 사용되는 모드(870C)를 기반으로 하이브리드 형식으로 재 조립된다. 그러한 변화에는 데이터의 비율 분포(872A), 특정 데이터가 얼마나 중요한지, 데이터가 서로 어떻게 관련되어야 하는지 등이 포함될 수 있다. 예: 예외적인 구성의 순위 중요성이 수신된다. 적절한 조정이 이루어진 후에, 정적 기준(870D)에 의해 안내되는 프로세스는 이 예외에 대한 반응이 데이터의 다른 부분과 호환되지 않는다고 판단한다. 그런 다음 병합 프로세스는 기존 데이터를 수정하여 예외 수정이 기존 데이터와 효과적으로 혼합 될 수 있도록 한다. 중첩되는 정보의 양은 정적 기준(870D)에 의해 설정된 비율(872A)에 따라 필터링된다. 비율(872A)이 큰 값으로 설정된 경우 일관성을 유지한 많은 양의 양식 데이터가 혼합 양식으로 병합된다. 비율(872A)이 작게 설정된 경우 하이브리드 양식의 대부분은 과거 반복과 매우 다르다. 우선 순위(872B)는 두 데이터 세트가 양식의 같은 위치에 있는 지형지물을 정의하기 위해 경쟁하는 위치이며 어떤 지형지물이 눈에 잘 띄고 어느 것이 겹쳐져 숨겨져 있는지 선택하는 우선 순위 지정 프로세스가 발생한다. 하나의 특성만이 특정 지점(사각형을 통해 강조 표시됨)을 차지할 수 있는 경우 우선 순위 지정 프로세스가 발생하여 어떤 기능이 상속되는지 선택한다. 스타일(872C)은 중첩 포인트가 병합되는 방식을 정의한다. 대부분의 경우 특정 병합이 발생할 수 있는 여러 가지 방법이 있으므로 정적 조건(870D) 및 모드(870C)는 이 모듈이 다른 병합보다 특정 병합을 선호하도록 지시한다. 대부분의 경우 특성들 사이에 겹쳐진 양식이 있으므로 병합된 특성을 가진 양식을 생성 할 수 있다. 예 : 삼각형과 원이 입력 양식으로 제공되면 '팩맨(pac-man)'모양을 생성 할 수 있다.Figures 151 to 154 illustrate a creativity module (18), which is an intelligent algorithm for generating a new hybrid form from a previous input form. The creativity module (18) is used as a plug-in module for processing multiple algorithms. In the drawing symbol 870A, two upper forms (previous forms) are pushed to an intelligent selector to generate a hybrid form (870B). This form may represent an abstract data structure. For example, scheme A represents an average model of risk concepts derived from a concept DB. scheme B represents a new information disclosure by a set of conceptual trigger rules on how to respond to the risky concepts. The information in scheme B allows hybrid forms produced with more risky concepts than those represented by scheme A. The intelligent selector (870B) algorithm selects new features and merges them into a hybrid form. For example, scheme A represents an average model of conceptual data risks derived from a concept DB. scheme B represents a new information disclosure by a set of conceptual rules on how to respond to prior conceptual risks. The information in Mode B allows for hybrid forms to be generated with better conceptual risk triggers than those represented by Mode A. The mode (870C) defines the type of algorithm that the creativity module (18) uses. This allows the intelligent selection (870B) to know which parts are appropriate for merging based on the application being used. For example, since the mode is set to ACT (866), the intelligent selection (870B) knows that the expected input data is a risk DB representation (Mode A) and that the newly released information details the rule set response to the conceptual risk trigger (Mode B). The attribute mode (870C) defines a detailed method for how to best merge the new data with the old data to create an effective hybrid form. The static criteria (870D) are provided by the conceptual data analyst that provide general customization on how to merge the forms. Such data may include priority rankings, desired data ratios, and data that drives the merge depending on which mode (870C) is selected. Example: If the mode (870C) is selected as ACT (866), the resulting information of the failed risk triggers will have a significant impact on the risk trigger DB, requiring a significant change in the configuration of these triggers. If the triggers continue to fail even after such changes, then abandon the triggers altogether. A raw comparison (871B) is performed on both the receiving modes based on the static criteria (870D) provided by the conceptual data analyst (867C). After the raw comparison, most of the modes were compatible based on the static criteria (870D). The only difference found is that mode A includes responses that are marked as 'outside' by the static criteria. That is, mode B, which represents the risk trigger DB, does not include or represent certain exceptions found in mode A. The importance of the change in rank (871C) ranks the changes that are important and unimportant based on the provided static criteria (870D). Example: Since an exception was found in mode A that was not represented by mode B, the static criteria (870D) recognizes that this exception is very important, and therefore a significant modification is made to produce hybrid mode AB in the hybrid form. In the merge module (871D), what is kept the same and found to be different is reassembled into a hybrid form based on the static standard (870D) and the mode (870C) used. Such changes may include the percentage distribution of the data (872A), how important certain data is, how the data should relate to each other, etc. For example, the rank importance of the exceptional configuration is received. After appropriate adjustments are made, the process guided by the static standard (870D) determines that the response to this exception is incompatible with other parts of the data. The merge process then modifies the existing data so that the exception modification can be effectively blended with the existing data. The amount of overlapping information is filtered based on the ratio (872A) set by the static standard (870D). If the ratio (872A) is set to a large value, a large amount of form data that has maintained consistency is merged into the hybrid form. If the ratio (872A) is set to a small value, most of the hybrid forms are very different from past iterations. Priority (872B) is where the two data sets compete to define features that are at the same location on the form, and a prioritization process occurs to choose which features are visible and which are hidden by overlapping. If only one feature can occupy a particular point (highlighted by the rectangle), a prioritization process occurs to choose which feature is inherited. Style (872C) defines how overlapping points are merged. In most cases, there are multiple ways in which a particular merge can occur, so the static condition (870D) and mode (870C) tell this module to prefer a particular merge over another. In most cases, there are overlapping forms between features, so it is possible to generate forms with merged features. For example, if a triangle and a circle are provided as input forms, it is possible to generate a 'pac-man' shape.

도 155 및 156은 개인 비서로 사용되는 LOM을 보여준다. LOM은 개인적인 생활에서 개인화된 포트폴리오를 관리하도록 구성 할 수 있다. 어떤 개인이 딜레마나 명제에 부딪힐 때 의미 있고 적절한 조언을 제공할 수 있도록 LOM이 그들의 일상 생활에 대한 개인 정보를 등록하는 것에 적극적으로 동의 할 수 있다. 이것은 상황, 일, 식습관, 구매 결정 등 다양 할 수 있다. LOM은 LOM의 내부 심의 과정(874A)를 통해 결론(874C)으로 이끄는 초기 질문(874B)을 받는다. EPL 811B는 LOM에 의해 생성된 응답의 윤리적, 법적 및 개인 정보 보호 준수를 확인하는 데 사용된다. LOM을 더욱 개인화하기 위해 LOM이 데이터를 수신하고 제어할 수있는 인터넷 가능 장치에 연결하는 LAA(812D) 모듈에 연결할 수 있다. (즉, 집 근처에 도착하면 에어컨이 가동된다.) PIP(802C)에서 LOM은 사용자로부터 개인 정보를 제공받으며 사용자는 정보를 안전하게 추적하는데 동의 할 수 있다. 이렇게 하면 LOM이보다 정확한 미래 대응을 개인별로 제공할 수 있다. 문맥화(874D)와 함께 LOM은 논증을 구성 할 때 누락된 링크를 추론 할 수 있다. LOM은 원래의 주장에 의해 제기된 딜레마를 해결하기 위해 상황에 대한 특정 변수를 먼저 알아야 하거나 가정해야 한다는 고급 논리로 해독했다.Figures 155 and 156 show a LOM used as a personal assistant. The LOM can be configured to manage a personalized portfolio in one's personal life. An individual can actively consent to having the LOM register personal information about their daily life so that it can provide meaningful and relevant advice when faced with a dilemma or proposition. This can range from situations, work, eating habits, purchasing decisions, etc. The LOM is asked an initial question (874B) that leads to a conclusion (874C) through the LOM's internal deliberation process (874A). The EPL 811B is used to verify the ethical, legal, and privacy compliance of the responses generated by the LOM. To further personalize the LOM, it can be connected to a LAA (812D) module that connects to an internet-enabled device that can receive and control data (i.e., turn on the air conditioner when you get near your house). In the PIP (802C), the LOM receives personal information from the user and the user can consent to having the information securely tracked. This allows LOM to provide more accurate future responses on an individual basis. With contextualization (874D), LOM can infer missing links when constructing arguments. LOM deciphers the dilemma posed by the original argument as a higher-level logic that requires first knowing or assuming certain variables about the situation.

도 157은 연구 도구로서 사용되는 LOM을 도시한다. 사용자가 LOM을 투자 도구로 사용하고 있다. 주장(875B)은 객관적이고 비 개인적인 방식으로 작성 되었기 때문에 LOM에서는 문제에 대한 정교한 의견을 형성 할 수 있도록 특정 및 격리된 사례의 추가 세부 정보(875D)를 요구하지 않는다. 그러므로 결론(875C)은 개인화된 정보 없이 도달된다. EPL(811B)은 LOM에 의해 생성된 응답의 윤리적, 합법적 및 개인 정보 보호 기반 준수를 확인하는데 사용되며 BM(819C)은 사용자를 대신하여 불법적 / 비도덕적 행위를 저지르는 음모를 모니터링하는데 사용된다.Fig. 157 illustrates LOM being used as a research tool. The user is using LOM as an investment tool. Since the assertion (875B) is written in an objective and impersonal manner, LOM does not require additional details (875D) of specific and isolated cases to form a sophisticated opinion on the issue. Therefore, the conclusion (875C) is reached without any personalized information. EPL (811B) is used to verify the ethical, legal and privacy-based compliance of the response generated by LOM and BM (819C) is used to monitor conspiracies to commit illegal/immoral acts on behalf of the user.

도 158 및 159는 LOM이 제안된 876B 이론의 장점과 단점을 탐구하는 것을 보여준다. 비트 코인은 피어 투 피어(peer-to-peer) 분산 네트워크로서 블록 체인이라는 공용 원장에서 암호 해독의 소유권을 확인한다. 발생하는 모든 비트코인 트랜잭션은 네트워크에서 10 분 간격으로 수집되는 블록에 기록된다. 비트코인 코어 클라이언트의 현재 하드 코드된 한도는 1MB이다. 즉, 10 분마다 1MB의 트랜잭션(데이터 형식으로 표시)만 있을 수 있다. 최근 비트 코인의 인기 증가로 인해 블록 크기 제한으로 인해 시스템에 긴장이 발생하고 지불 확인 시간이 오래 걸리고 마이너(miner) 비용이 비싸다. 문맥화(876D)와 함께 LOM은 논증을 구성할 때 누락된 링크를 추론 할 수 있다. LOM은 원래의 주장에 의해 제기된 딜레마를 해결하기 위해 누가 블록 크기 제한을 올릴 것인지를 먼저 알아야 하거나 추측해야 한다는 고급 논리로 해독했다. 그러므로 결론(876C)은 LOM에 의해 도달된다. EPL(811B)는 LOM에 의해 생성된 응답의 윤리적, 합법적 및 개인 정보 보호 기반 준수를 확인하는데 사용되며 BM(819C)는 사용자를 대신하여 불법적 / 비도덕적 행위를 저지르는 음모를 모니터링하는 데 사용된다.Figures 158 and 159 show LOM exploring the pros and cons of the proposed 876B theory. Bitcoin is a peer-to-peer distributed network that verifies ownership of cryptocurrency in a public ledger called a blockchain. All Bitcoin transactions that occur are recorded in blocks that are collected by the network every 10 minutes. The current hard-coded limit for the Bitcoin Core client is 1MB. That is, there can only be 1MB of transactions (in data format) every 10 minutes. The recent increase in popularity of Bitcoin has put a strain on the system due to the block size limit, making confirmation of payments longer and miners more expensive. With contextualization (876D), LOM can infer the missing link when constructing an argument. LOM deciphers the dilemma posed by the original argument as a high-level logic that one must first know or guess who will raise the block size limit. Therefore, the conclusion (876C) is reached by LOM. EPL (811B) is used to verify ethical, legal and privacy-based compliance of responses generated by LOM and BM (819C) is used to monitor conspiracies to commit illegal/immoral acts on behalf of users.

도 160 및 161은 외교 정책 전쟁 게임을 위한 정책 결정을 수행하는 LOM을 보여준다. 격리되고 안전한 LOM의 사례는 군대에서 승인한 하드웨어 및 시설에 활용할 수 있다. 이를 통해 LOM은 중앙 지식 보유(CKR)(806)의 일반적인 지식에 액세스 할 수 있으며 동시에 개인적인 지능 프로필(PIP)의 로컬 사례에서 군대 특정(심지어 분류된) 정보에 액세스 할 수 있다. 군인은 LOM의 고급 지능 능력으로 인해 복잡한 전쟁 게임을 실행할 수 있는 반면 일반적인 지식과 특정 지식에 액세스 할 수 있다. 최초의 전쟁 게임 시나리오는 주장(877B)과 하드 코드된 가정(877E)으로 제안된다. 전쟁 게임 시나리오의 복잡성으로 인해 LOM은 발전된 세부 사항 요청(887D)으로 응답한다. LOM은 정교한 대응을 위해 50,000 명의 군대에 대한 자세한 프로필과 같은 높은 수준의 정보를 받아야 한다고 결정할 수 있다. 이러한 정보 전송은 수 테라 바이트 크기의 데이터를 처리 할 수 있으므로 정교한 결론에 도달하기 위해 여러 날의 병렬 처리가 필요하다. 모든 정보는 표준화되고 자동화된 형식 및 프로토콜을 통해 전송된다(즉, 단일 컴퓨터 인터페이스 작업으로 2 시간 동안 50,000 개의 엑셀 시트 가져 오기). BM(819C) 및 EPL(811B)을 사용하면 정보의 민감한 특성으로 인해 그러한 보호 기능이 비활성화되도록 보안 정리 무시가 활성화된다. 전쟁 게임 시뮬레이션의 문제는 BM(819C) 및 EPL(811B)에 의해 표시될 수 있는 주제를 포함한다. EPL은 실생활과 지출 비용에 영향을 미치는 시뮬레이션에 도움이 될 수 있는 유용한 정보를 차단할 수 있다. BM(819C)은 주제를 표시하고 그것을 MNSP(9) 관계자에 보고했을 수 도 있다. 따라서 적절한 자격을 갖춘 군대/ 조직은 PIP(802C)를 통해 LOM 세션을 인증하여 중단 없이 LOM을 통해 민감한 주제를 처리 할 수 있도록 하고 방해하거나 관계자에 보고 할 수 있다. 이러한 정보가 병력 번호와 위치와 같이 분류될 수 있기 때문에 인증된 세션은 BM(819C)와 EPL(811C)를 완전히 차단하는 오버라이드를 가능하게 하여 그러한 민감한 정보가 LOM을 외부 플랫폼이나 MNSP(9)와 같은 단체로 보내지 않는다. PIP(802C)를 통해 이 전쟁 게임을 실행하는 공인된 군인은 업그레이드된 / 특수화된 암호화 및 정보 격리가 있는 사용자 지정된 LOM 인스턴스를 사용한다. 여기에는 민감한 군사 정보가 공용 클라우드 저장에 들어 가지 않고 군사 승인된 시설 내에 남아 있지 않도록 하기 위해 사용자 지정 현장 저장 솔루션이 포함될 수 있다. 따라서 그러한 안전하게 보관된 정보는 LOM의 내부 심의(877A)가 제안된 전쟁 게임을 시뮬레이션 할 수 있게 한다.Figures 160 and 161 illustrate a LOM performing policy decisions for a foreign policy war game. An isolated and secure LOM instance can be utilized on military approved hardware and facilities. This allows the LOM to access general knowledge from the central knowledge reserve (CKR) (806) while simultaneously accessing military specific (even classified) information from local instances of personal intelligence profiles (PIPs). Soldiers can execute complex war games due to the advanced intelligence capabilities of the LOM while having access to general and specific knowledge. The initial war game scenario is proposed as an assertion (877B) and a hard-coded assumption (877E). Due to the complexity of the war game scenario, the LOM responds with an advanced request for details (887D). The LOM may decide that it needs to receive high-level information, such as a detailed profile of 50,000 troops, for a sophisticated response. This information transfer can process data in the order of terabytes, requiring multiple days of parallel processing to arrive at a sophisticated conclusion. All information is transmitted via a standardized and automated format and protocol (i.e. importing 50,000 excel sheets in 2 hours with a single computer interface task). The use of BM (819C) and EPL (811B) enables security clearance overrides to disable such protections due to the sensitive nature of the information. The problem with war game simulations involves topics that can be flagged by BM (819C) and EPL (811B). EPL can block useful information that could aid in simulations that impact real life and cost. BM (819C) may flag the topic and report it to MNSP (9) officials. Therefore, appropriately qualified military/organizations can authenticate LOM sessions via PIP (802C) to allow uninterrupted handling of sensitive topics via LOM and to report them to officials. Since this information may be classified as troop numbers and locations, the authenticated session enables an override that completely blocks the BM (819C) and EPL (811C) so that such sensitive information is not sent to LOM to external platforms or entities such as MNSP (9). Authorized soldiers running this war game via PIP (802C) will use a customized LOM instance with upgraded/specialized encryption and information isolation. This may include a customized on-site storage solution to ensure that sensitive military information does not enter public cloud storage and does not remain within military approved facilities. Such securely stored information thus allows LOM's internal review (877A) to simulate the proposed war game.

도 162 및 163은 LOM이 사람에 대한 식별 가능한 세부 사항을 밝히는 것과 같은 조사 저널리즘 작업을 수행하는 것을 보여준다. 이 사용 사례의 예는 가명 나카모토 사토시가 알려진 비트코인의 제작자를 둘러싼 수수께끼를 따른다. 비트코인 커뮤니티는 많은 잡지 및 조사 저널리스트와 함께 자신의 정체성을 밝히기 위해 많은 노력을 기울였다. 그러나 LOM은 자동화되고 철저한 방법으로 조사 노력을 극대화 할 수 있다. LOM은 초기 쿼리에 정확하게 응답할 수 있어야 하는 저널리즘 퍼즐의 특정 부분에 직면 할 수 있다. 따라서 LOM은 맞춤 정보 요청을 ARM(805B)에 전달할 수 있다. 이 요청은 CKR(806)에 정보를 통합한다. 상황화(879D) LOM은 질문(878B)이 객관적이고 비 개인적인 방식으로 제시되기 때문에 문제에 대한 정교한 의견을 형성할 수 있도록 특정 및 격리된 사용 케이스에 대한 추가 세부 사항을 요구하지 않는다. LOM은 알지 못하거나 LOM이 '잔인하게 솔직한' '성격'을 가졌기 때문에 확실치 않다고 응답하는 것을 '부끄러워'하지 않는다. 그러므로 하위 결론(878E)과 같이 사토시의 진정한 정체성을 드러내는데 필연적인 증거가 있음을 알 수 있다. ARM(805B)이 사토시에 올바르게 기여한 것으로 알려진 모든 전자 메일 및 채팅 로그를 검색할 때 문체분석(808B)이 수행되어 사토시의 실제 신원을 확인하고 정의한다. 그러므로 조사 저널리즘 과제에 관해 LOM이 알고 있는 모든 것이 결론(879C)으로 제시된다.Figures 162 and 163 illustrate LOM performing investigative journalism tasks such as uncovering identifiable details about a person. An example of this use case follows the mystery surrounding the creator of Bitcoin, known by the pseudonym Satoshi Nakamoto. The Bitcoin community has made a great effort to uncover his identity, along with many magazines and investigative journalists. However, LOM can maximize the investigative effort in an automated and thorough manner. LOM may be faced with a specific piece of the journalistic puzzle that it must be able to answer accurately to the initial query. Therefore, LOM can forward a tailored request for information to ARM (805B). This request integrates the information into CKR (806). Contextualization (879D) LOM does not require additional details for a specific and isolated use case to form a sophisticated opinion on the issue, as the question (878B) is presented in an objective and impersonal manner. LOM is not ‘ashamed’ to respond that it does not know or is unsure, as LOM has a ‘brutally honest’ ‘nature’. Therefore, we can see that there is compelling evidence to reveal Satoshi's true identity, as in the sub-conclusion (878E). When ARM (805B) searches all emails and chat logs known to be properly attributed to Satoshi, a stylistic analysis (808B) is performed to confirm and define Satoshi's true identity. Therefore, everything LOM knows about the investigative journalism task is presented in the conclusion (879C).

도 164 및 165는 LOM에서 기록 유효성 검사를 수행하는 것을 보여준다. LOM은 화자의 체인의 확증을 통해 역사적인 문서의 진위 여부를 확인할 수 있다. '하디스'(문자 그대로 '아랍어'의 '뉴스')로 알려진 특정 기록 문서는 전송 된 뉴스를 뒷받침하는 사람들의 확인을 통해 본인의 저작자로 인증된 것으로 입증되었다. 하디스 문학은 원래 아랍어로 구어체 문맥에서 저장되고 이해 되었기 때문에 언어적 구성(812A) 모듈은 제 3 자 번역 알고리즘을 참조하여 문학을 모국어로 직접 이해한다. 문맥화(879D)와 함께 LOM은 질문(879B)이 객관적이고 비 개인적인 방식으로 제시되기 때문에 문제에 대한 정교한 의견을 형성할 수 있도록 특정 및 고립된 사용 케이스에 대한 추가 세부 사항을 요구하지 않는다. KCA(816D) UKF와 함께 클러스터된 정보는 화자 체인이 확인한 견적(하디스)의 유효성에 관한 확증적인 증거를 비교한다. 이 알고리즘은 원인을 밝힌 소스(즉, 하디스 화자라고 주장하는), 그러한 주장이 제기되었을 때, 증거를 부정하는 등의 신뢰성을 고려한다. LOM은 하디스의 인증 프로세스를 용이하게 하는 ARM에 의해 검색된 데이터로부터 CKR(806) 내에서 초과 개념을 구축한다. 하디스란 무엇인가?', '하디스의 변종은 무엇인가?', '인증의 가장 좋은 방법은 무엇인가?'와 같은 자체 질문이 있다. CKR(806)는 선천적인 고급 추론을 통해 강력한 기본 정의를 구축하고 LOM이 출력하는 모든 결론(879C)을 정당화 할 수 있다. 클러스터 빌딩(879C)을 통해 CKR(806)은 UKF 클러스터로 알려진 빌딩 블록을 '쌓는'방식을 통해 개념적 결론에 도달한다. 이러한 클러스터는 원인 소스, 의심되는 정보 생성 시간 등과 같은 대상 정보와 관련된 광범위한 메타 데이터를 포함한다.Figures 164 and 165 show how LOM performs a validation of records. LOM can verify the authenticity of historical documents through the confirmation of the chain of speakers. Certain historical documents known as 'Hadith' (literally 'news' in 'Arabic') are verified as authenticated by the authorship of the people who backed up the transmitted news. Since Hadith literature was originally stored and understood in a colloquial context in Arabic, the linguistic composition (812A) module refers to a third-party translation algorithm to directly understand the literature in the native language. Along with contextualization (879D), LOM does not require additional details for specific and isolated use cases to form a sophisticated opinion on the issue since the question (879B) is presented in an objective and impersonal manner. The clustered information along with the KCA (816D) UKF compares the corroborative evidence regarding the validity of the quote (Hadith) verified by the chain of speakers. This algorithm considers the credibility of the source that claims to be a causal speaker (i.e., the speaker of the hadith), when such a claim is made, and the evidence that denies it. LOM builds super-concepts within CKR (806) from data retrieved by ARM that facilitate the authentication process of the hadith. It has its own questions such as 'What is a hadith?', 'What are the variants of a hadith?', 'What is the best way to authenticate?'. CKR (806) is able to build strong underlying definitions through innate high-level reasoning and justify any conclusion (879C) that LOM outputs. Through cluster building (879C), CKR (806) arrives at conceptual conclusions by 'stacking' building blocks known as UKF clusters. These clusters contain extensive metadata related to the subject information such as the causal source, the time of the alleged information generation, etc.

디지털 지향 언어 LAQITDigital-oriented language LAQIT

도 166은 LAQIT의 개념을 소개한다. LAQIT는 신뢰할 수 있는 대상의 네트워크 내에서 정보를 전송하는 효율적이고 안전한 방법이다. LAQIT는 가독성을 강조하고 보안에 중점을 둘 수 있는 다양한 모드를 제공한다. 선형, 원자 및 양자은 다양한 기능과 애플리케이션을 제공하는 서로 다른 정보 전송 모드이다. LAQIT는 보안 정보 전송의 궁극적인 형태이며, 가장 약한 링크는 마음의 사생활이다. 카운터 파티 위험은 효과적으로 암기 키가 수신자의 마음 속에만 저장되고 메시지가 해당 키의 구성에 따라 실시간으로(인간 기억을 사용하여) 해독되므로 실질적으로 제거된다. 키는 한 번만 전송하고 메모리에 저장되어야 하기 때문에 전화기를 꺼서 직접 키를 전달하는 것과 같은 격리된 암기 이벤트, 임시 암호화된 전자 메일 등을 통해 보다 정교한 개인 정보 보호 조치를 사용할 수 있다. 모든 보안 책임은 키의 기밀 범위 내에 있다. 암기하기 쉽기 때문에 모든 보안 책임의 대부분이 완화되었다. 블록(900A)은 LAQIT의 논리적으로 구조화된 구문 내에서 반복되고 재귀적인 적색, 주황색, 청색, 녹색 및 자색의 동일한 일관된 컬러 시퀀스를 도시한다. 블록(900B)은 영어 알파벳으로 번역하기 위해 재귀적으로 사용되는 컬러 시퀀스를 더 설명한다. 알파벳의 '기본'레이어를 구성할 때 이 색상 시퀀스는 자주색 채널에서 짧고 다른 가중치와 함께 사용된다. 자주색 채널 내의 구문 정의를 위한 남은 공간은 잠재적인 향후 사용 및 확장을 위해 예약되어 있다. 901 단계는 복잡한 알고리즘이 LAQIT를 사용하여 로그 이벤트 및 상태 보고서를 보고 함을 나타낸다. 이 시나리오에서는 암호화 옵션을 사용할 수 있는 반면 선택 사항에 따라 암호화가 사용되지 않는다. A1(902A) 단계는 상태 / 로그 보고서의 자동 생성을 나타낸다. A2 (903A) 단계는 상태 / 로그 리포트를 이동 가능한 텍스트 기반 LAQIT 구문으로 변환하는 것을 나타낸다. A3(904A) 단계는 디지털적으로 암호화된 (즉, VPN 12) 암호 해독 된(즉, 원시 HTTP) 채널을 통해 전송될 수 있는 구문적으로 안전하지 않은 정보의 전달을 나타낸다. 암호화된 채널이 선호되지만 필수는 아니다. A4(905A) 단계는 이동 가능한 텍스트 기반 구문의 판독이 가능한 LAQIT 시각적 구문(즉, 선형 모드)로의 변환을 나타낸다. 911 단계는 LAQIT가 비 컴퓨터 / 비 AI 정보 수신자를 위해 설계되고, 의도되고 최적화되기 때문에 대상 수신자를 사람으로 표현한다. 906 단계는 민감한 정보의 발신자가 인간임을 나타낸다. 그러한 인간은 정보 기관 또는 내부 고발자 계획을 대표 할 수 있다. 그러한 송신자 (906)는 임의의 트레이스가 영구 저장 장치에 남아있는 상태에서 그러한 키 (939)를 전송하도록 설계된 안전하고 일시적인 암호화 된 터널을 통해 사람 수신자 (911)에 LAQIT 암호화 키를 직접적으로 공개한다. 이상적으로 인간 수신자(911)는 키(939)를 메모리에 맡기고 해킹의 가능성을 제거하기 위해 키가 디지털 시스템에 가지고 있는 모든 저장 추적을 제거하는 것이 이상적이다. 이는 상대적으로 짧은 모양의 시퀀스를 기반으로 하기 때문에 인간의 암기에 최적화된 키(939)로 인해 가능하다. 단계 B1(902B)는 수신자(911)에 제출하기 위해 송신자(906)에 의해 입력되는 국부적으로 안전하지 않은 텍스트를 나타낸다. B2(903B) 단계는 그러한 텍스트(902B)를 이동 가능한 암호화된 텍스트 기반 LAQIT 구문으로 변환하는 것을 나타낸다. B3(904B) 단계는 디지털적으로 암호화된 (즉, VPN) 암호 해독된 (즉, 원시 HTTP) 채널을 통해 전송 될 수 있는 구문 보안 정보의 전송을 나타낸다. B4(905B) 단계는 시각적으로 암호화된 LAQIT 구문(즉, 암호화 레벨 8을 갖는 원자 모드)로의 데이터의 변환을 나타내며, 이후 인간 수신자(911)에 제공된다.Figure 166 introduces the concept of LAQIT. LAQIT is an efficient and secure way to transmit information within a network of trusted entities. LAQIT provides a variety of modes that emphasize readability and focus on security. Linear, atomic and quantum are different modes of information transmission that provide a variety of functions and applications. LAQIT is the ultimate form of secure information transmission, the weakest link being the privacy of the mind. Counter-party risk is effectively eliminated because the secret key is stored only in the mind of the recipient and the message is decrypted in real time (using human memory) based on the configuration of that key. Since the key only needs to be transmitted once and stored in memory, more sophisticated privacy measures can be used, such as isolated secret events such as turning off the phone and directly transmitting the key, or temporary encrypted e-mail. All security responsibilities are within the confidentiality scope of the key. Since it is easy to memorize, most of the security responsibilities are relieved. Block (900A) illustrates the same consistent color sequence of red, orange, blue, green and purple that is repeated and recursive within the logically structured syntax of LAQIT. Block (900B) further describes the color sequence used recursively to translate into the English alphabet. When constructing the 'base' layer of the alphabet, this color sequence is used in the purple channel with a short and different weight. The remaining space for the syntax definition within the purple channel is reserved for potential future use and extension. Step 901 indicates that the complex algorithm uses LAQIT to report log events and status reports. In this scenario, encryption is optional, while encryption is not used by choice. Step A1 (902A) indicates automatic generation of status/log reports. Step A2 (903A) indicates conversion of status/log reports into portable text-based LAQIT syntax. Step A3 (904A) indicates the transmission of syntactically insecure information that can be transmitted over a digitally encrypted (i.e. VPN 12) or decrypted (i.e. raw HTTP) channel. An encrypted channel is preferred, but not required. Step A4 (905A) represents the transformation of the portable text-based syntax into a readable LAQIT visual syntax (i.e., linear mode). Step 911 represents the target recipient as a human, since LAQIT is designed, intended and optimized for non-computer/non-AI information recipients. Step 906 represents the sender of the sensitive information as a human. Such a human may represent an intelligence agency or a whistleblower scheme. Such a sender (906) directly discloses the LAQIT encryption key to the human recipient (911) via a secure and temporary encrypted tunnel designed to transmit such key (939) while leaving any trace of it in permanent storage. Ideally, the human recipient (911) would commit the key (939) to memory and remove any storage trace the key has on the digital system to eliminate the possibility of hacking. This is possible due to the key (939) being optimized for human memorization, since it is based on a relatively short sequence of shapes. Step B1 (902B) represents locally insecure text input by a sender (906) for submission to a receiver (911). Step B2 (903B) represents the conversion of such text (902B) into a portable encrypted text-based LAQIT syntax. Step B3 (904B) represents the transmission of the syntax security information that can be transmitted over a digitally encrypted (i.e. VPN) to a decrypted (i.e. raw HTTP) channel. Step B4 (905B) represents the conversion of the data into a visually encrypted LAQIT syntax (i.e. atomic mode with encryption level 8), which is then provided to a human receiver (911).

도 167은 위치, 모양, 색상 및 사운드와 같은 정보 채널을 사용하여 정보를 전송할 때의 효율성을 비교하기 위해 사용 가능한 모든 언어(또는 정보 전송 모드)의 주요 유형을 보여준다. 가장 효과적이고 효율적이며 사용 가능한 언어는 대부분의 채널을 효과적으로 통합하고 활용할 수 있는 언어이다. 증가하는 인식 효과(Incremental Recognition Effect, IRE)(907)는 정보 전달 채널이다. 이는 정보가 완전히 전달되기 전에 완전한 형태의 정보 단위를 인식하는 효과를 특징으로 한다. 이것은 피험자가 단어나 문구를 완성하기 전에 끝내는 것과 비슷하다. LAQIT는 단어 사이의 전환을 표시함으로써 예측 지수의 이 효과를 통합한다. 숙련된 LAQIT 독자는 블록이 위치에 있지만 아직 도착하지 않은 상태에서 표시되는 단어를 형성하기 시작할 수 있다. 근위 인식 효과(PRE) (908)는 정보 전달 채널이다. 이는 정보 단위가 손상되거나 혼동되거나 변경되는 동안 완전한 형태의 정보 단위를 인식하는 효과를 특징으로 한다. 이것은 'character'와 'chracaetr'이라는 철자로 영어로 설명 될 수 있다. 유닛의 바깥 경계가 정의되었지만 (첫 번째 문자와 마지막 문자), 혼합 문자의 근접성은 여전히 단어 전체를 정의한다. 영어 쓰기(Written English)(912)에서는 일반적인 영어 텍스트가 글자의 위치, 글자의 모양 및 IRE(907)에 설명된 개별 글자와 함께 전체 단어 인식을 결합한다. 대화법 스피치(913)에서 평균 구두 대화는 단어의 위치(말한 순서), 피치의 빈도를 나타내는 모양 및 들리는 강조를 결합한다. 모스 부호(915)는 다양한 소리의 이진 위치로 구성된다. 정보 수신자의 예측인지는 IRE(907)을 가능하게 하지만 모스 부호가 정보를 스트림 정보로 점진적으로 전달하지는 않는다. 핸드 신호(915)에서, 손 움직임의 위치 및 형성 (형상)은 정보를 결정한다. 이것은 항공기에 신호를 보내는 것과 트럭을 멈추는 것에 이르기까지 다양하다. 예측 능력이 거의 없으므로 IRE (907)이나 PRE(908)도 없다. LAQIT(916)은 경쟁 언어 912 내지 915와 비교하여 대부분의 정보 채널을 활용할 수 있다. 즉, 적은 양의 매체(즉, 화면상의 공간)로 더 많은 정보를 더 짧은 시간에 전송할 수 있다. 이렇게 함으로써 용량 헤드 룸을 확보하여 강력한 암호화와 같은 복잡한 기능을 효과적으로 통합 할 수 있다. LAQIT 사운드 암호화(909)를 사용하면 LAQIT는 정보의 암호화를 위해 사운드의 정보 채널을 활용할 수 있다. 따라서 해독된 통신을 통해 정보를 전송할 수는 없지만 정보를 전송할 수 있는 것으로 간주된다.Figure 167 shows the main types of all available languages (or modes of information transmission) to compare their effectiveness in transmitting information using information channels such as position, shape, color, and sound. The most effective, efficient, and usable language is the one that can effectively integrate and utilize most of the channels. The Incremental Recognition Effect (IRE) (907) is an information transmission channel. It is characterized by the effect of recognizing a complete unit of information before the information is fully transmitted. This is similar to a subject finishing a word or phrase before it is completed. LAQIT incorporates this effect of the predictive index by indicating the transition between words. A skilled LAQIT reader can begin to form a word that is presented while the block is in place but has not yet arrived. The Proximal Recognition Effect (PRE) (908) is an information transmission channel. It is characterized by the effect of recognizing a complete unit of information while the information unit is damaged, confused, or altered. This can be described in English by the spellings 'character' and 'chracaetr'. Although the outer boundaries of the unit are defined (the first and last letters), the proximity of mixed letters still defines the entire word. In Written English (912), typical English text combines whole word recognition with letter position, letter shape, and individual letters as described in the IRE (907). In conversational speech (913), the average spoken conversation combines word position (the order in which they are spoken), shape indicating pitch frequency, and audible stress. Morse code (915) consists of binary positions of various sounds. Predictive perception by the receiver of information enables IRE (907), but Morse code does not convey information progressively as a stream of information. In hand signals (915), the position and formation (shape) of hand movements determine information. This can range from signaling an aircraft to stopping a truck. There is little predictive ability, so there is no IRE (907) or PRE (908). LAQIT (916) can utilize most of the information channels compared to competing languages 912 to 915. That is, more information can be transmitted in a shorter period of time with a smaller amount of media (i.e., space on the screen). This frees up capacity headroom, allowing for the effective integration of complex features such as strong encryption. With LAQIT sound encryption (909), LAQIT can utilize the information channel of sound to encrypt information. Therefore, although information cannot be transmitted via decrypted communication, it is considered to be able to transmit information.

도 168 및 169는 LAQIT의 선형 모드를 보여 주며, 단순성, 사용 용이성, 높은 정보 밀도 및 암호화 부족으로 특징으로 한다. 블록(917)은 선형 모드의 '기본 렌더링'버전을 나타낸다. 포인트(918)는 암호화가 없음을 표시한다. 선형 모드는 원자 모드에서 암호화의 기초가 되는 모양 불명료화(941)에 대한 효율적인 공간 할당을 허용하지 않는다. 대신 선형 모드는 밀도 높은 정보 전송과 프레젠테이션 화면의 효율적인 사용을 위해 최적화되어 있다. 단어 분리(919)에서 이 도형의 색은 단어를 따라가는 문자를 나타내며 그 단어와 다음 단어 사이의 구분자 역할을 한다. 이것은 원자적 절차로 원자핵과 동일한 구문이다. 물음표, 느낌표, 마침표 및 쉼표를 나타내는 색상 코드는 모두 적용 가능하다. 싱글 뷰잉 존(920)은 기본 렌더링(917)이 진보된 렌더링(918)과 비교하여 더 큰 글자 및 더 적은 정보를 갖는 작은 시청 구역을 어떻게 통합 하는지를 보여준다. 이러한 고급 렌더링은 더블 뷰잉 존(922)이 특징이다. 고급 렌더링에서는 LAQIT 리더가 속도 면에서 유지할 수 있기 때문에 픽셀 당 더 많은 활성 글자가 있다. 따라서 프레젠테이션 속도와 정보 밀도간에 트레이드 오프 딜레마가 있다. 음영 커버(921)는 관찰자의 주 초점이 관찰 영역 상에 있도록 수신 및 발신 문자를 둔하게 만든다. 덮개가 있음에도 불구하고 관찰자가 들어오는 단어를 예측하고 나가는 단어를 확인하는 기능을 제공할 수 있도록 부분적으로 투명하다. 이를 증가하는 인식 효과(Incremental Recognition Effect, IRE)(907)이라고도 한다. 고밀도 정보 전송(923)은 고급 렌더링(918)에서 각각의 문자가 더 작고 더 많은 글자가 동일한 공간에 어떻게 표시되는지를 보여 주므로 더 많은 정보가 픽셀 당 전달된다.Figures 168 and 169 illustrate the linear mode of LAQIT, which is characterized by simplicity, ease of use, high information density and lack of encryption. Block (917) represents the 'basic rendering' version of the linear mode. Point (918) indicates no encryption. The linear mode does not allow efficient space allocation for shape obfuscation (941), which is the basis of encryption in the atomic mode. Instead, the linear mode is optimized for dense information transmission and efficient use of the presentation screen. In the word separation (919), the color of the shape represents the character that follows the word and acts as a separator between that word and the next word. This is an atomic procedure, the same syntax as the atomic nucleus. The color codes for question marks, exclamation marks, periods and commas are all applicable. The single viewing zone (920) shows how the basic rendering (917) integrates a smaller viewing area with larger text and less information compared to the advanced rendering (918). This advanced rendering features a double viewing zone (922). In advanced rendering, there are more active characters per pixel because the LAQIT reader can maintain speed. Therefore, there is a trade-off dilemma between presentation speed and information density. The shaded cover (921) dulls the incoming and outgoing characters so that the viewer's primary focus is on the viewing area. Despite the cover, it is partially transparent so that the viewer can anticipate incoming words and identify outgoing words. This is also called the Incremental Recognition Effect (IRE) (907). The high-density information transfer (923) shows how each character is smaller and more characters are displayed in the same space in the advanced rendering (918), so that more information is transmitted per pixel.

도 170 및 171은 광범위한 암호화 수준을 사용할 수 있는 원자 모드의 특성을 보여준다. 베이스(924) 주 문자 참조는 어떤 문자가 정의되는지에 대한 일반 사항을 명시할 것이다. 빨강 베이스는 문자가 알파벳 참조(900B)에 따라 문자 A 내지 F 사이에 있음을 나타낸다. 유도가 단어의 철자를 추론하는 데 사용될 수 있기 때문에 베이스만 사용하여 단어를 읽을 수 있다(키커(925) 제외). 암호화를 가능하게 하기 위해 가능한 총 5 가지 형태로 존재할 수 있다. 키커(925)는 기본 색상과 동일한 색상 범위를 가지며 특정 문자를 정확하게 정의한다. 키커가 없다는 것은 정의를 나타낸다. 즉 키커가 없는 빨간색 바탕은 문자 A이다. 키커는 암호화를 가능하게 하기 위해 총 5 개의 가능한 모양들(935)에 존재할 수 있다. 읽기 방향(926)에서, 정보 전달 읽기는 궤도 링 상의 가장 위 사각형에서 시작한다. 읽기는 시계 방향으로 수행된다. 일단 궤도 링이 완료되면 독자는 다음 순차 궤도 링 (링 2)의 상단 사각형에서 계속된다. 입구 / 출구 포털(927)은 캐릭터의 생성 및 파괴 지점이다(기본임). 관련 궤도에 속한 새 캐릭터가 포털에서 나오고 시계 방향으로 슬라이드 된다. 원자 핵(928)은 그 단어 뒤에 나오는 성격을 정의한다. 일반적으로 이 단어는 공백으로, 이 단어가 표시된 후에 문장이 계속된다는 것을 나타낸다. 물음표, 느낌표, 마침표 및 쉼표를 나타내는 색상 코드는 모두 적용 가능하다. 또한 3 개의 궤도가 모두 최대 용량까지 채워지기 때문에 동일한 단어가 새로운 정보 상태로 계속 될지 여부를 나타낸다. 한 개의 궤도 링(929)이 채워지면 문자가 다음 (더 큰) 궤도 링 위로 오버플로우 된다. 한도는, 궤도 링 1은 7, 링 2는 15, 링 3은 20이다. 이렇게 하면 원자 내의 총 문자 수는 최대 42개까지 가능하다. 한도가 42 자에 도달하면 해당 단어는 42 개의 부분으로 나뉘며 핵은 다음 정보 상태가 현재 단어의 연속임을 나타낸다. 단어 탐색(930)에서 각 블록은 화면의 왼쪽에 전체 단어 (또는 분자 모드의 여러 단어)를 나타낸다. 단어가 표시되면 해당 블록이 바깥쪽으로 오른쪽으로 이동하고 해당 단어가 완료되면 블록이 후퇴한다. 탐색 블록의 색상 / 모양은 단어의 첫 글자의 기준과 동일한 색상 / 모양이다. 문장 내비게이션(931)에서는 각 블록이 단어 집단을 나타낸다. 클러스터는 단어 탐색 창에 들어갈 수 있는 단어의 최대 크기이다. 문장 네비게이션 블록이 자체 또는 많은 블록 중 마지막 블록 인 경우 최대 용량보다 적은 수의 단어 클러스터를 나타내는 경향이 있다. 원자 상태 생성(Atomic State Creation)(932)는 증가하는 인식 효과(IRE)(907)를 유도하는 전환이다. 이러한 전환으로 베이스(924)는 입구/ 출구 포털(927)에서 나오고 키커(925)는 숨겨지고 시계 방향으로 움직여 자신의 위치를 차지한다. 이 전환 과정에서 LAQIT의 숙련된 독자는 IRE(907)로 인해 키커들(925)이 공개되기 전에 부분적으로 또는 전체 단어를 예측할 수 있다. 이것은 대부분의 검색 엔진의 자동 완성 기능과 유사하며 초기 정보 묶음이 있는 시퀀스의 남은 양을 추정한다. 원자 상태 확장 933은 근위 인식 효과(PRE)(908)를 유도하는 전환이다. 일단 베이스(924)가 그들의 위치에 도달하면, 이들은 정보 상태 프리젠테이션의 '확장' 시퀀스에서 바깥쪽으로 이동한다. 이것은 키커들(925)을 보여 주므로 정보 상태의 특정 정의를 나타낼 수 있다. 숙련된 LAQIT 독자는 점차적으로 단어를 작성하기 위해 각 문자를 점차적으로 스크롤 할 필요는 없지만 전체 구조 보고 PRE(908)로 인한 단어의 의미를 즉시 인식한다. 원자 상태 파괴(934)는 증가하는 인식 효과(IRE)(907)를 유도하는 전환이다. 이 단계에서 베이스(924)는 키커들(925)을 다시 덮기 위해 (확장 순서(933)를 뒤집은) 철회했다. 그들은 이제 입구 / 출구 포털에 도달하기 위해 시계 방향으로 슬라이드 한다. 정보 상태의 고속 렌더링에서 LAQIT의 숙련된 독자는 단어의 인식을 완료하기 위해 파괴 전이를 활용할 수 있다. 확장된 원자 상태(키커들이 보여주는)를 볼 수 있는 기회가 매우 좁은 경우(1 초의 몇 분지) 유용하다.Figures 170 and 171 show the characteristics of the atomic mode that can be used for a wide range of encryption levels. The base (924) primary character reference will specify the general information about which character is defined. The red base indicates that the character is between the letters A through F according to the alphabetic reference (900B). Since the derivation can be used to infer the spelling of the word, the base alone can be used to read the word (excluding the kicker (925)). There are five possible configurations that can exist to enable encryption. The kicker (925) has the same color range as the base and precisely defines a particular character. The absence of a kicker indicates a definition, i.e., a red base without a kicker is the letter A. The kicker can exist in five possible configurations (935) to enable encryption. In the reading direction (926), the information transfer reading begins at the top square on the orbital ring. Reading is performed clockwise. Once the orbital ring is completed, the reader continues at the top square of the next sequential orbital ring (ring 2). The entrance/exit portal (927) is the point of creation and destruction of characters (default). A new character belonging to the relevant orbit emerges from the portal and slides clockwise. The atomic nucleus (928) defines the character that follows the word. This word is usually blank, indicating that the sentence continues after this word is displayed. The color codes indicating question marks, exclamation marks, periods, and commas are all applicable. It also indicates whether the same word will continue to a new information state, as all three orbits are filled to their maximum capacity. When one orbital ring (929) is filled, the character overflows to the next (larger) orbital ring. The limits are 7 for orbital ring 1, 15 for ring 2, and 20 for ring 3. This allows a total of 42 characters in the atom. When the limit of 42 characters is reached, the word is divided into 42 parts, and the nucleus indicates that the next information state is a continuation of the current word. In word navigation (930), each block represents a whole word (or multiple words in molecular mode) on the left side of the screen. When a word is displayed, the block moves outward to the right, and when the word is completed, the block retreats. The color/shape of the navigation block is the same color/shape as the reference of the first letter of the word. In sentence navigation (931), each block represents a cluster of words. A cluster is the maximum size of words that can fit into the word navigation window. If a sentence navigation block is itself or the last block of many blocks, it tends to represent a smaller number of word clusters than the maximum capacity. Atomic State Creation (932) is a transition that induces the Increasing Recognition Effect (IRE) (907). This transition causes the base (924) to emerge from the entrance/exit portal (927) and the kicker (925) to be hidden and move clockwise to take its place. During this transition, a skilled LAQIT reader can partially or fully predict a word before the kickers (925) are revealed due to the IRE (907). This is similar to the auto-complete function of most search engines, which estimates the remaining amount of the sequence with the initial information bundle. The atomic state expansion 933 is a transition that induces the proximal recognition effect (PRE) (908). Once the bases (924) reach their positions, they move outward in the 'expansion' sequence of the information state presentation. This can reveal the kickers (925) and thus indicate a specific definition of the information state. A skilled LAQIT reader does not need to incrementally scroll through each letter to gradually build the word, but immediately recognizes the meaning of the word due to the overall structure reported by the PRE (908). The atomic state destruction (934) is a transition that induces the incremental recognition effect (IRE) (907). At this stage, the bases (924) are retracted (reversing the expansion sequence (933)) to cover the kickers (925) again. They now slide clockwise to reach the entrance/exit portal. In the high-speed rendering of information states, a skilled reader of LAQIT can utilize the destructive transition to complete the recognition of words. This is useful when the window to see the extended atomic state (shown by the kickers) is very narrow (a few fractions of a second).

도 172 내지 174는 원자 모드의 암호화 기능에 대한 개요를 보여준다. LAQIT는 정보를 전송하는 효율적이고 밀집된 수단을 제공하기 때문에 암호화 구현을 제공하기에 충분한 정보 대역폭 여유 공간이 있다. 이 구문 암호화는 의도된 정보 수신자가 암기된 키로 실시간으로 정보를 해독해야 한다는 점에서 고전적인 사이버 보안 암호화와 다르다. 이렇게 하면 동작 중인 데이터, 휴면 상태의 데이터 및 사용 중인 데이터가 악의적인 사람과 권한이 없는 사람이 읽고 이해하는 위험이 완화된다. 암호화 복잡성은 9 가지 표준화 수준(940)에 따라 다르며, 가독성과 보안 강도 간에 균형을 이룬다. 모양 불명료화(941)(레벨 1 내지 9)에서는 표준 사각형이 시각적으로 다른 5 개의 모양으로 대체되었다. 구문 내에서 모양의 차이는 위조(가짜) 문자가 원자 프로필의 전략적 지점에 삽입되도록 한다. 위조 문자는 메시지의 진실되고 의도된 의미를 모호하게 만든다. 문자가 실제인지 여부를 확인하는 것은 안전하고 일시적으로 전송된 암호 해독 키를 통해 수행된다. 문자가 키와 호환되면 단어의 계산에 포함된다. 키 비호환성이 있는 경우 계산 내에서 무시해야 한다. 방향 전환 본드(942)(레벨 4 내지 9)에서는 본드가 두 글자를 연결하고 읽기 흐름을 변경한다. 일반적인 시계 방향 읽기 패턴으로 시작하는 동안 합법적 / 비 단서 문자로 출발 (시작) 및 종료 (끝)하는 본드가 발생하면 종료 문자에서 재개하기 위해 읽기 패턴을 전환 할 것이다. 방사성 원소(943)(레벨 7 내지 9)를 사용하면 문자가 위조인지 아닌지에 대한 평가를 역으로 할 수 있는 요소가 '덜컹거리는' 요소가 될 수 있다. 모양(935)은 암호화에 사용할 수 있는 모양을 보여준다. 삼각형, 원형, 정사각형, 5 각형 및 사다리꼴로 구성된다. 중심 요소(936)는 단어 뒤의 문자를 정의하는 궤도의 중심 요소를 보여준다. 이러한 요소는 빨간색으로 마침표를 나타내며 쉼표를 나타내는 오렌지색, 공간을 나타내는 파란색, 느낌표를 나타내는 녹색 및 느낌표를 나타내는 분홍색이다. 암호화 예제(937)는 암호화 레벨 1 내지 9에 적용 할 수 있는 모양 불명료화(941)를 보여준다. 중심 요소(936)는 궤도의 중심에 표시되고 위조 문자(938)는 모양 불명료화(941)의 주요 암호화 수단이다. 왼쪽 위조는 원형-사각형 시퀀스를 가지고 있다. 오른쪽 위조는 사각형-삼각형 시퀀스를 가진다. 이 두 시퀀스는 모두 암호화 키(939)에 없으므로 판독기는 정보 상태의 의미를 계산할 때 위조로 인식하여 건너 뛴다.Figures 172 to 174 provide an overview of the cryptographic functionality of the atomic mode. Since LAQIT provides an efficient and compact means of transmitting information, there is sufficient information bandwidth headroom to provide an encryption implementation. This syntax encryption differs from classical cybersecurity encryption in that the intended recipient of the information must decrypt the information in real time with a memorized key. This mitigates the risk that data in motion, data at rest, and data in use will be read and understood by malicious and unauthorized parties. The cryptographic complexity varies across nine levels of standardization (940), balancing readability and security strength. Shape obfuscation (941) (levels 1 to 9) replaces the standard squares with five visually different shapes. The shape differences within the syntax allow for the insertion of spurious (fake) characters at strategic points in the atomic profile. The spurious characters obscure the true and intended meaning of the message. Verification of whether the characters are real is performed via a secure, temporarily transmitted decryption key. If the characters are compatible with the key, they are included in the computation of the word. If there is a key incompatibility, they are ignored in the computation. In a reversing bond (942) (levels 4 to 9), the bond connects two letters and changes the reading flow. While starting with a normal clockwise reading pattern, if a bond that starts (starts) and ends (ends) with a legal/illegal clue letter occurs, the reading pattern will switch to resume at the ending letter. Using a radioactive element (943) (levels 7 to 9), the element that can be 'rattling' can be an element that reverses the evaluation of whether the letter is forged or not. Shape (935) shows shapes that can be used for encryption. It consists of triangles, circles, squares, pentagons, and trapezoids. The central element (936) shows the central element of the orbit that defines the letter after the word. These elements are red for a period, orange for a comma, blue for a space, green for an exclamation point, and pink for an exclamation point. Encryption example (937) shows shape obfuscation (941) that can be applied to encryption levels 1 to 9. The central element (936) is marked at the center of the orbit and the forgery character (938) is the primary cryptographic means of shape obfuscation (941). The left forgery has a circle-square sequence. The right forgery has a square-triangle sequence. Since neither of these sequences is present in the encryption key (939), the reader recognizes them as forgeries and skips them when calculating the meaning of the information state.

도 175 및 176은 방향 전환 본드(942)의 메커니즘을 도시한다. 암호화 예 (944)는 방향 전환 본드(942 및 945)를 나타낸다. 이들은 방향 전환 본드에 관한 '참여 규칙들'이다:Figures 175 and 176 illustrate the mechanism of the direction-switching bond (942). The encryption example (944) illustrates the direction-switching bond (942 and 945). These are the 'participation rules' for the direction-switching bond:

1) 본드에 이르면 디폴트되고 따라서 시계 방향의 일상적인 행동은 포기된다.1) When a bond is reached, the default occurs and the usual clockwise action is therefore abandoned.

2) 경로를 따라갈 때: 시작 문자, 경로가 시작되는 문자는 시퀀스의 일부로 계산된다.2) When following a path: The starting character, the character at which the path begins, is counted as part of the sequence.

3) 경로를 따라 가면: 경로가 끝나는 문자인 종료 문자는 서열의 일부로 간주된다.3) Along a path: The terminating character, which is the character that ends the path, is considered part of the sequence.

4) 통로는 한 번만 따라갈 수 있다.4) The passage can only be followed once.

5) 문자의 특정 사례는 한 번만 계산 될 수 있다.5) A particular instance of a character can only be counted once.

6) 출발와 종료 문자가 모두가 위조가 아닌 경우에만 통로를 따라야 한다.6) A passage should only be followed if both the start and end characters are not forged.

방향 전환 본드(945)를 사용하면 본드는 '출발' 문자에서 시작하여 '종료' 문자로 끝난다. 그 중 하나는 위조 일 수도 있고 그렇지 않을 수도 있다. 이들 중 어느 것도 위조가 아니면, 본드가 판독 방향 및 위치를 변경한다. 둘 중 하나 또는 둘 다 위조라면 전체 본드를 무시해야 한다. 그렇지 않으면 메시지가 올바르게 해독되지 않는다. 각각의 개별 본드는 올바른 방향으로 읽혀 지지만 그 순서는 명시적으로 기술되어 있지 않으며 정보 상태의 현재 읽기 위치와 위조 구성에 따라 유도되어야 한다. 위조 문자들(946)은 이 두 가지 위조 문자로 인해 암호 해독이 더욱 복잡해짐에 따라 무차별 대입 공격에 내성이 있음을 보여준다. 이는 모양 불명료화와 방향 전환 본드의 결합이 무차별 공격자에게 기하 급수적으로 더 어려운 작업으로 이어지기 때문이다. 본드 키 정의(947)는: 정보 상태 읽기에서 본드를 따라야 하는 경우 암호화 키에 구체적으로 정의되어 있는지 여부에 따라 다르다. 잠재적 정의는 단일 결합, 이중 결합 및 삼중 결합이다. 본드 키(947)를 알지 못하기 때문에 방향 전환 본드를 잘못 읽는 잠재적 사례 시나리오가 부정확한 해석(949)에 나와 있다. 이러한 부정확한 해석(949)은 'RDTNBAIB'라는 메시지로 연결되는 반면, 올바른 해석(948)의 진정한 메시지는 'RABBIT'이다. 모양 불명료화(941)의 복잡성을 활용하여 기하 급수적으로보다 안전한 메시지를 기하 급수적으로 생성하기 때문에 방향 전환 본드(945)를 잘못 해석하는 여러가지 잠재적인 방법들이 있다. 올바른 해석(948)에 나와있는 것처럼 진정한 메시지를 해석하는 올바른 방법은 하나뿐이다.With the reversing bond (945), the bond starts with a 'start' character and ends with an 'end' character, one of which may or may not be forged. If neither of these is forged, the bond changes the reading direction and position. If either or both are forged, the entire bond must be ignored, otherwise the message will not be decrypted correctly. Each individual bond is read in the correct direction, but the order is not explicitly stated and must be derived based on the current read position of the information state and the forged configuration. The forged characters (946) demonstrate that the decryption is resistant to brute force attacks, as these two forged characters make decryption more complex. This is because the combination of shape obfuscation and the reversing bond makes the task exponentially more difficult for a brute force attacker. The bond key definition (947) is: Whether a bond must be followed in reading the information state depends on whether it is specifically defined in the encryption key. Potential definitions are single bond, double bond, and triple bond. A potential case scenario of misreading the redirection bond due to not knowing the bond key (947) is shown in the incorrect interpretation (949). This incorrect interpretation (949) would result in the message 'RDTNBAIB', whereas the true message of the correct interpretation (948) is 'RABBIT'. There are several potential ways to misinterpret the redirection bond (945) since the complexity of shape obfuscation (941) yields exponentially more secure messages. There is only one correct way to interpret the true message, as shown in the correct interpretation (948).

도 177 및 178은 방사성 원소(943)의 메커니즘을 설명한다. 암호화 예제(950)는 방사성 원소(943과 951)를 보여준다. 이들은 방사성 원소에 관한 '참여 규칙'이다:Figures 177 and 178 illustrate the mechanism of radioactive elements (943). Encryption examples (950) show radioactive elements (943 and 951). These are the 'participation rules' for radioactive elements:

1) 방사성 원소는 정보 상태의 확장 단계에서 불안정하거나 진동하는 것으로 인식된다.1) Radioactive elements are perceived as unstable or vibrating in the expanded phase of the information state.

2) 방사성 원소는 방사능 활성이거나 휴면 상태 일 수 있다.2) Radioactive elements can be radioactive or dormant.

3) 활동적인 방사성 원소는 위조가 역전된 상태임을 나타낸다. 즉, 모양 구성이 위조로 나타내는 경우, 거짓 긍정이며 실제로는 위조를 카운트하지 않고, 진짜 문자를 카운트한다. 모양 구성이 진짜임을 나타낼 경우, 거짓 긍정이며 실제로는 위조를 카운트하고, 진짜 문자를 카운트 하지 않는다.3) The active radioactive element indicates that the forgery is inverted. That is, if the shape configuration indicates a forgery, it is a false positive and we actually do not count forgeries, but count real characters. If the shape configuration indicates that it is genuine, it is a false positive and we actually do count forgeries, but do not count real characters.

4) 휴면 방사능 원소는 그것이 위조 또는 진짜 문자의 상태가 영향을 받지 않음을 나타낸다.4) The dormant radioactive elements indicate that the status of the letter is not affected by forgery or genuine.

5) 방사성 원소의 집단은 궤도 링 안의 연속적인 방사성 존재에 의해 정의된다. 방사성 원소가 (특정 궤도 링 내에서) 서로 이웃 할 때, 그들은 하나의 군집을 정의한다. 방사성 요소의 이웃이 비 방사성인 경우 이 값이 클러스터의 상한선이다.5) A cluster of radioactive elements is defined by the presence of continuous radioactivity within an orbital ring. When radioactive elements are next to each other (within a particular orbital ring), they define a cluster. If the neighbors of a radioactive element are non-radioactive, this value is the upper limit of the cluster.

6) 키는 활성 및 휴면중인 클러스터를 정의한다. 즉, 키가 이중 클러스터를 나타내면 모든 이중 클러스터는 방사성이며 모든 단일 및 트리플 클러스터는 휴면 상태이다.6) A key defines active and dormant clusters. That is, if a key represents a double cluster, all double clusters are radiant and all single and triple clusters are dormant.

방사성 요소(950)는 문자(또는 요소)가 정보 표현의 확장 단계에서 격렬하게 흔들리는 경우 방사능으로 간주되는 방법을 보여준다. 암호화 수준의 분류로 인해 방사성 원소를 포함하는 원자는 항상 원자 간 결합을 갖는다. 방사능 원소는 글자의 분류가 위조인지 아닌지에 따라 변경되기 때문에 보안 난독화는 기하 급수적으로 증가한다. 이중 클러스터(952)는 시퀀스에 두 개의 방사성 요소가 있고 동일한 궤도에서 클러스터(더블)로 계산되는 이유를 보여준다. 활성 또는 휴면 상태로 처리되는지 여부는 암호화 키(954)에 의해 정의된다. 단일 클러스터(953)에서 두 이웃은 비 방사성이므로 클러스터의 범위가 정의된다. 키가 이중 클러스터를 유효하다고 지정하기 때문에 이 원소(953)는 처음에는 방사성이 아닌 경우 처리된다. 이중 클러스터 키 정의(954)에서 키는 이중 클러스터를 활성으로 정의하므로 다른 모든 크기의 클러스터는 메시지를 암호 해독하는 동안 휴면 상태로 간주된다. 잘못된 해석(956)은 해석자가 이중 클러스터(952)를 역순으로 처리하지 않았음을 보여준다(거짓 긍정). 이것은 956A 단계에서 올바른 대답은 위조가 아니더라도 문자를 반역으로 해석하는 해독 프로세스를 지시하는 능동적인 방사성 클러스터(키(954)에 의해 검증 됨)에 속하기 때문에 그것을 무시하는 것이다. 열쇠를 모르는 사람이라면 실제적인 의미에서 무차별 공격을 사용하여 모양 불명료화(941), 방향 전환 본드(942) 및 방사성 원소(943)이 동시에 사용되는 동안 모든 잠재적 조합을 추측할 수 없다. 잘못된 해석(956)은 키(954)가 없는 해석기가 어떻게 올바른 해석(955)에 따라야 할 방향 전환 본드(956B)를 사용하도록 오도 될 수 있는 방법을 보여준다. 이것은 'RABBIT'대신 'RADIT'의 메시지 결과와 완전히 다른 결과를 낳는다. 메시지를 올바르게 해독하는 방법에 대한 자세한 내용은 올바른 해석(955)에 설명되어 있다.The radioactive element (950) shows how a character (or element) is considered radioactive when it is shaken violently in the expansion phase of information representation. Due to the classification of the cryptographic level, atoms containing radioactive elements always have interatomic bonds. Since the radioactive element changes depending on whether the classification of the character is forged or not, the security obfuscation increases exponentially. The double cluster (952) shows why there are two radioactive elements in the sequence and they are counted as a cluster (double) in the same orbit. Whether it is treated as active or dormant is defined by the encryption key (954). In a single cluster (953), the two neighbors are non-radioactive, thus defining the range of the cluster. Since the key specifies that a double cluster is valid, this element (953) is initially treated as non-radioactive. In the double cluster key definition (954), the key defines a double cluster as active, so clusters of all other sizes are considered dormant while decrypting the message. The incorrect interpretation (956) shows that the interpreter did not process the double cluster (952) in reverse order (a false positive). This is because the correct answer at step 956A is to ignore it because it belongs to an active radioactive cluster (verified by the key (954)) that instructs the decryption process to interpret the character as a counterfeit, even if it is not a forgery. A person who does not know the key cannot, in a practical sense, use a brute force attack to guess all potential combinations while the shape obfuscation (941), the redirection bond (942) and the radioactive element (943) are used simultaneously. The incorrect interpretation (956) shows how an interpreter without the key (954) could be misled into using the redirection bond (956B) that should be followed by the correct interpretation (955). This results in a completely different result than the message 'RADIT' instead of 'RABBIT'. Details on how to correctly decrypt the message are described in the correct interpretation (955).

그림 179는 암호화 및 스트리밍(959)이 활성화된 분자 모드를 보여준다. 은밀 사전 공격 저항(Corvert Dictionary Attack Resistance)(957)을 사용하면 메시지의 잘못된 암호 해독으로 인해 '붉은 청어(red herring)'대체 메시지가 표시된다. 이것은 악의적인 행위자에게 실제 메시지의 표지 역할을 하는 가짜 메시지를 수신하는 동안 메시지를 성공적으로 해독한 잘못된 인상을 주는 것이다. 분자당 여러 개의 활성 단어(958)을 사용하면 분자 절차 중에 단어가 병렬로 표시된다. 이것은 표면적 비율 당 정보를 증가 시키지만, 일관된 전환 속도로 보다 숙련된 독자가 필요하다. 단어 네비게이션은 현재 활성화된 네 단어가 있음을 나타낸다. 그러나 방향 전환 본드 불명료화로 인해 메시지의 단어는 부분적으로나 전체적으로 분자 내의 다른 원자에 존재한다. 바이너리 및 스트리밍 모드(959)는 스트리밍 모드를 나타내지만 일반적인 원자 구성에서는 읽기 모드가 바이너리이다. 바이너리 모드는 가운데 요소가 단어 뒤의 문자(예 : 물음표, 느낌표, 마침표, 공백 등)를 정의함을 나타낸다. 분자 모드는 또한 바이너리이다; 스트리밍 모드를 준수하는 암호화가 활성화된 경우는 예외이다. 스트리밍 모드는 궤도 내의 물음표와 같은 특수 문자를 참조한다. 이것은 암호화 된 분자 내에서 단어가 여러 원자에 걸쳐 존재하므로 특정 중심 요소가 특정 단어에만 독점적으로 존재할 수 없기 때문에 수행된다. 분자 결합(960)에서는 분자 정보 상태가 독점적인 암호화 기능이 아니지만 암호화 불명료화의 촉매제가 될 수 있다. 암호화의 3 가지 모드(모양 불명료화, 방향 전환 본드 및 방사성 요소)는 모두 점차적으로 증가하는 분자 환경에 배치될 때 보안 강도 면에서 기하 급수적으로 증가한다. 판독 방향 키(961)는 디폴트 판독 방향이 1 열은 좌측에서 우측으로, 2 열은 다시 좌측에서 우측으로 진행되는 동안 판독 방향이 암호화 키에 의해 대체 될 수 있음을 나타낸다. 이것은 의도된 메시지의 불명료화를 증가시키고 따라서 메시지 프라이버시 / 보안을 증가시킨다. 방향 전환 본드는 가장 우선 순위를 가지며 키에 정의된 방향 조차도(본드가 위조가 아닌 한) 대체한다.Figure 179 shows the molecular mode with encryption and streaming (959) enabled. With Corvert Dictionary Attack Resistance (957), incorrect decryption of the message results in a 'red herring' replacement message. This gives a malicious actor the false impression that they have successfully decrypted the message while receiving a fake message that acts as a cover for the real message. With multiple active words per molecule (958), words are displayed in parallel during the molecular process. This increases the information per surface area ratio, but requires a more skilled reader with a consistent switching rate. Word navigation indicates that there are currently four active words. However, due to the direction bond obfuscation, the words in the message are partially or fully present on other atoms in the molecule. Binary and streaming mode (959) indicates streaming mode, but in the typical atomic configuration, the reading mode is binary. Binary mode indicates that the middle element defines the character following the word (e.g., question mark, exclamation mark, period, space, etc.). The molecular mode is also binary; except when encryption is enabled that complies with streaming mode. Streaming mode refers to special characters such as question marks within an orbital. This is done because words in an encrypted molecule span multiple atoms, so no central element can exist exclusively in a particular word. In molecular bonding (960), the molecular information state is not an exclusive cryptographic function, but can be a catalyst for cryptographic obfuscation. All three modes of encryption (shape obfuscation, reversing bonds, and radioactive elements) increase exponentially in security strength when placed in an increasingly larger molecular environment. The reading direction key (961) indicates that while the default reading direction is left to right for column 1, and left to right for column 2, the reading direction can be overridden by the encryption key. This increases the obfuscation of the intended message, and therefore message privacy/security. Reversing bonds have the highest priority and even override the direction defined in the key (unless the bond is forged).

통합 노드를 부착하는 기본 연결 조화(BCHAIN; Base Connection Harmonization Attaching Integrated Nodes)를 이용한 유니버설 BCHAIN 모든 연결들(UBEC; Universal BCHAIN Everything Connections)의 요약Summary of Universal BCHAIN Everything Connections (UBEC) using Base Connection Harmonization Attaching Integrated Nodes (BCHAIN)

도 180은 BCHAIN 사용 어플리케이션(1003)을 포함하고 실행하는 BCHAIN 노드(1001)를 도시한다. 통신 게이트웨이(CG)(1000)는 BCHAIN 노드(1001)가 그 하드웨어 인터페이스와 상호 작용하여 다른 BCHAIN 노드(1001)와의 통신을 유도하는 주요 알고리즘이다. 노드 통계 조사(NSS)(1006)는 원격 노드 행동 패턴을 해석한다. 노드 이스케이프 인덱스(1006A)는 노드 이웃이 인식 노드의 부근을 벗어날 가능성을 추적한다. 높은 이스케이프 지수는 보다 혼란스러운 환경을 나타내며. 이에 대처하기 위해서는 개선된 전략이 필요하다.Figure 180 illustrates a BCHAIN node (1001) that includes and executes a BCHAIN-enabled application (1003). The Communication Gateway (CG) (1000) is the primary algorithm by which the BCHAIN node (1001) interacts with its hardware interface to communicate with other BCHAIN nodes (1001). The Node Statistics Survey (NSS) (1006) interprets remote node behavior patterns. The Node Escape Index (1006A) tracks the likelihood that a node's neighbors will leave the vicinity of the aware node. A higher escape index indicates a more chaotic environment. An improved strategy is needed to cope with this.

예: 고속도로에 있는 자동차의 스마트 폰은 노드 이스케이프 인덱스가 높다. 스타 벅스의 냉장고는 매우 낮은 노드 이스케이프 인덱스를 나타낸다.Example: A smart phone in a car on the highway has a high node escape index. A refrigerator in a Starbucks has a very low node escape index.

노드 포화 인덱스(1006B)는 감지 노드의 검출 범위 내의 노드의 양을 추적한다. 포화도 지수가 높으면 많은 노드가 있는 혼잡한 지역을 나타낸다. 이것은 공급 / 수요 트레이드 오프로 인해 성능에 긍정적이거나 부정적인 영향을 줄 수 있지만 밀도가 높은 노드 영역은 보다 안정적 / 예측 가능하고 따라서 혼란이 적을 것으로 예상된다.Node saturation index (1006B) tracks the amount of nodes within the detection range of a sensing node. A high saturation index indicates a crowded area with many nodes. This can have a positive or negative impact on performance due to supply/demand tradeoffs, but denser node areas are expected to be more stable/predictable and therefore less chaotic.

예: 뉴욕시의 중심부에 있는 스타 벅스는 노드 포화 인덱스가 높다. 사막 한가운데 있는 텐트는 노드 포화 인덱스가 매우 낮다.Example: A Starbucks in the heart of New York City has a high node saturation index. A tent in the middle of the desert has a very low node saturation index.

노드 일관성 인덱스(1006C)는 인식 노드에 의해 해석되는 노드 서비스의 품질을 추적한다. 높은 노드 일관성 인덱스는 주변 노드가 가용성 가동 시간 및 성능의 일관성을 유지하는 경향이 있음을 나타낸다. 이중 용도를 사용하는 노드는 일관성 지수가 낮은 반면 BCHAIN 네트워크 전용 노드는 높은 값을 나타낸다.Node Consistency Index (1006C) tracks the quality of node service as interpreted by the aware node. A high node consistency index indicates that the surrounding nodes tend to maintain consistency in availability, uptime, and performance. Nodes that use dual purpose will have low consistency indexes, while nodes dedicated to the BCHAIN network will have high values.

예: 회사 직원 컴퓨터와 같은 이중 목적을 가진 노드는 근무 시간 동안 사용 가능한 자원이 적고 점심 시간 동안 사용 가능한 리소스가 더 많기 때문에 일관성 인덱스가 낮다.Example: Dual-purpose nodes, such as company employee computers, have a low consistency index because they have fewer resources available during work hours and more available during lunch hours.

노드 중복 인덱스(1006D)는 노드가 인식하는 것으로 중첩되는 노드의 양을 서로 추적한다. 중첩 및 채도 지수는 상관 관계가 있는 경향이 있지만, 중첩 인덱스는 이웃 간의 일반적인 중첩 정도를 나타내며 포화 지수는 물리적 경향만을 다룬다. 따라서 각 장치에서 무선 범위가 긴 높은 포화 인덱스는 높은 중첩 지수로 이어질 것이다.The node overlap index (1006D) tracks the amount of overlap between nodes as perceived by the nodes. The overlap and saturation indices tend to be correlated, but the overlap index indicates the general degree of overlap between neighbors, while the saturation index only addresses physical trends. Thus, a high saturation index with a long wireless range for each device will lead to a high overlap index.

예: 디바이스는 고급 BCH (BCHAIN Optimized Microchip)가 설치된 BCHAIN 네트워크의 특정 섹터에 진입하기 시작하며. BCHAIN은 고급 빔 포밍 기술이 적용된 높은 이득 지향성 안테나를 갖추고 있다. 따라서, 중첩된 통신 구조를 갖는 노드로 인해 이들 섹터에서 중복 인덱스가 증가한다.Example: A device starts entering a specific sector of the BCHAIN network where an advanced BCH (BCHAIN Optimized Microchip) is installed. BCHAIN has high gain directional antennas with advanced beamforming technology. Therefore, the overlap index increases in these sectors due to nodes with overlapping communication structures.

도 181은 BCHAIN 프로토콜의 핵심 논리(1010)를 도시한다. 사용자 정의 체인 인식 모듈(CRM)(1022)은 이전에 노드에서 등록한 사용자 정의 체인(앱 체인들 또는 마이크로 체인들 일 수 있음)과 연결한다. 따라서 노드는 그러한 기능에 대한 읽기, 쓰기 및 / 또는 관리 능력에 대한 암호화 액세스 권한을 가진다. 이 모듈은 메타 체인 또는 마이크로 체인의 메타 체인 에뮬레이터의 앱체인의 섹션에서 업데이트가 감지되면 나머지 BCHAIN 프로토콜에 알린다. 컨텐츠 클레임 제공(CCD; Content Claim Delivery)(1026)은 유효화된 CCR(1018)을 수신 한 후 그 요청을 수행하기 위해 관련 CCF(1024)를 전송한다.Figure 181 illustrates the core logic (1010) of the BCHAIN protocol. The Custom Chain Recognition Module (CRM) (1022) associates with custom chains (which may be app chains or micro chains) previously registered by the node. The node thus has cryptographic access to read, write and/or manage capabilities for such functions. This module notifies the rest of the BCHAIN protocol when an update is detected in the section of the app chain of the meta chain or the meta chain emulator of the micro chain. The Content Claim Delivery (CCD) (1026) forwards the associated CCF (1024) to fulfill the request after receiving the validated CCR (1018).

도 182는 최적화된 전략 선택 알고리즘(OSSA; Optimized Strategy Selection Algorithm)(1042)을 통해 시스템에 의해 선호된 복잡한 전략을 하이브리드화하기 위해 창조성 모듈(18)을 사용함으로써 새로운 전략 배치 (1054)를 동적으로 생성하는 전략 생성 모듈(SCM; 1046)을 관리하는 동적 전략 적응(DSA; Dynamic Strategy Adaptation)(1008)을 도시한다. 새로운 전략은 영역 혼돈 해석(FCI; Field Chaos Interpretation)(1048)에 제공된 입력에 따라 다양하다.FIG. 182 illustrates a Dynamic Strategy Adaptation (DSA) (1008) that manages a Strategy Generation Module (SCM; 1046) that dynamically generates new strategy configurations (1054) by using a Creativity Module (18) to hybridize complex strategies preferred by the system via an Optimized Strategy Selection Algorithm (OSSA) (1042). The new strategies vary depending on the input provided to a Field Chaos Interpretation (FCI) (1048).

도 183은 UBEC 플랫폼 인터페이스(UPI)하에서 그래픽 사용자 인터페이스(GUI; Graphical User Interface)에 의해 관리되는 다양한 경제적 성격들(1058, 1060, 1062 및 1064)을 갖는 암호화 디지털 경제 교환(CDEE; Cryptographic Digital Economic Exchange)(1056)을 도시한다. 성격 A(1058) 노드 자원은 소비하는 것(있는 경우)과 일치하는 경우에만 소비된다. 성격 A는 가벼운 양의 정보 전송을 통해 가벼운 검소한 소비자에게 이상적이다. VoIP 통화 (예: Skype) 및 우선 순위 정보 전송과 같은 실시간 스트리밍은 최소화된다. 성격 B(1060)는 이익 마진이 X보다 큰 한 가능한 한 많은 자원을 소비한다. (초과 작업 단위는 암호 해독, 화폐 통화, 귀금속 등 대체 통화로 거래 될 수 있음) 성격 B는 이익 동기를 위해 BCHAIN 네트워크의 인프라에 기여하기 위해 특별히 설정된 노드에 이상적이다. 따라서 이러한 노드는 일반적으로 배터리로 작동하는 장치와 달리 주전원에서 실행되는 영구적인 인프라 설치이며 강력한 컴퓨터 내부(무선 기능, CPU 강도, 하드 디스크 크기 등)가 있다. 예 : 고정식 기기 등. 성격 C(1062)는 거래된 통화(암호화된 화폐, 화폐 통화, 귀금속 등)를 통해 거래 단위 비용을 지불하므로 노드 자원을 덜 소비하면서 콘텐츠를 사용할 수 있다. 성격 C는 대량의 정보 전송 소비자 나 BCHAIN 네트워크를 통해 이익을 얻을 수 있지만 기기의 리소스를 고갈시키지 않으려는 사람에게 이상적이다(예: 스마트 폰이 배터리를 빨리 소모하고 주머니에서 따뜻해짐). 성격 D(1064) 노드 자원은 컨텐츠 소비 또는 금전적 보상 여부와 관계없이 최대한 많이 소비되며 그에 대한 보상의 제약이 없다. 성격 D는 BCHAIN 네트워크의 장점에 가장 부합하는 사람에 의해 선택된다. (즉, BCHAIN 네트워크의 핵심 개발자는 노드를 구입하여 네트워크를 강화하고 컨텐츠를 소비하거나 돈을 벌지 못하게 할 수 있다.) 현재 작업 상태 해석(CWSI; Current Work Status Interpretation)(1066)은 작업 완료 크레딧과 관련하여 이 노드의 현재 잉여 또는 적자를 결정하기 위해 메타체인의 인프라 경제 섹션을 참조한다. 경제적 측면을 고려한 작업 시행(ECWI; Economic Inside Work Imposition)(1068)은 현행 근로 잉여 / 적자와 함께 선택된 경제적 특성을 고려하여 현재 더 많은 작업이 수행되어야 하는지 평가한다.Figure 183 illustrates a Cryptographic Digital Economic Exchange (CDEE) (1056) with various economic personalities (1058, 1060, 1062, and 1064) managed by a Graphical User Interface (GUI) under the UBEC Platform Interface (UPI). Personality A (1058) node resources are consumed only when they match what it consumes (if any). Personality A is ideal for light frugal consumers with light amounts of information transmission. Real-time streaming such as VoIP calls (e.g. Skype) and priority information transmission is minimized. Personality B (1060) consumes as many resources as possible as long as its profit margin is greater than X. (Excess work units can be traded for alternative currencies such as cryptocurrencies, fiat currencies, precious metals, etc.) Personality B is ideal for nodes specifically set up to contribute to the infrastructure of the BCHAIN network for profit motive. Therefore, these nodes are permanent infrastructure installations that run on mains power, unlike battery-powered devices, and have powerful computer internals (wireless capabilities, CPU power, hard disk size, etc.). For example, stationary devices. Personality C (1062) pays for the unit cost of a transaction via the currency being traded (cryptocurrency, fiat currency, precious metals, etc.), allowing the content to be consumed while consuming less node resources. Personality C is ideal for consumers of high-volume information transmission or those who want to profit from the BCHAIN network but do not want to deplete the resources of their device (e.g. their smartphone drains its battery quickly and gets warm in their pocket). Personality D (1064) node resources are consumed as much as possible, regardless of whether it is for content consumption or monetary compensation, and there are no restrictions on the reward for it. Personality D is chosen by those who best suit the advantages of the BCHAIN network. (i.e. core developers of the BCHAIN network can buy nodes to power the network and prevent them from consuming content or making money.) Current Work Status Interpretation (CWSI) (1066) refers to the infrastructure economics section of the metachain to determine the current surplus or deficit of this node with respect to work completion credits. Economic Inside Work Imposition (ECWI) (1068) evaluates whether more work should be done now, taking into account the current work surplus/deficit along with selected economic characteristics.

도 184는 공생적 재귀 지능 향상(SRIA; Symbiotic Recursive Intelligence Advancement)을 보여주는데, 이것은 서로가 지능이 성장할 수 있게 하는 세 가지 알고리즘 간의 삼중 관계이다. LIZARD(16)은 코드의 목적을 이해함으로써 알고리즘의 소스 코드를 개선할 수 있다. I2GE(21)는 가상 프로그램 반복 세대를 에뮬레이션 할 수 있으므로 가장 강력한 프로그램 버전을 선택할 수 있다. BCHAIN 네트워크는 분산된 방식으로 복잡한 데이터가 많은 프로그램을 실행할 수 있는 무질서하게 연결된 노드의 방대한 네트워크이다.Figure 184 shows Symbiotic Recursive Intelligence Advancement (SRIA), which is a three-way relationship between three algorithms that allow each other to grow in intelligence. LIZARD (16) can improve the source code of an algorithm by understanding the purpose of the code. I2 GE (21) can emulate virtual program iteration generations, so that it can select the most powerful program version. The BCHAIN network is a massive network of chaotically connected nodes that can execute complex data-rich programs in a distributed manner.

9 MNSP
10 신뢰 플랫폼
12 VPN/엑스트라넷
16 LIZARD
17 인공의 보안 위협
18 창조성 모듈
19 음모 탐지
20 보안 행동
22 CTMP
23 관리 콘솔
9 MNSP
10 Trust Platforms
12 VPN/Extranet
16 LIZARD
17 Artificial Security Threats
18 Creativity Modules
19 Conspiracy Detection
20 Security Behaviors
22 CTMP
23 Management Console

Claims (1)

Translated fromKorean
인공 지능을 기반으로 한 컴퓨터 보안 시스템에 있어서,
상기 시스템은 프로그램 된 명령어를 저장하는 메모리; 및
상기 메모리에 연결되어 상기 프로그램 된 명령들 및 적어도 하나의 데이터 베이스를 실행하는 프로세서;를 포함하며,
상기 시스템은 지정된 기능을 제공하는 컴퓨터 구현 시스템을 포함하고,
상기 컴퓨터 구현 시스템은,
클라우드 및 계층화된 정보 보안(CTIS; Cloud & Tiered Information Security)을 통한 비판적 인프라 보호 및 보상(CIPR; Critical Infrastructure Protection & Retribution);
사이버 공간에서 비밀 동작을 통한 기계 비밀 정보(MACINT)와 응징(Retribution)으로 구현;
논리적으로 추론된 제로-데이터베이스 선험적 실시간 방위(Logically Inferred Zero-database A-priori Realtime Defense (LIZARD);
비판적 사고의 기억과 인식(CTMP; Critical Thinking Memory & Perception)이거나, 어휘 객관성 마이닝(LOM; Lexical Objectivity Mining);
선형 원자 퀀텀 정보 전달(LAQIT; Linear Atomic Quantum Information Transfer); 및
통합 노드를 부착한 베이스 연결 조화를 갖는 범용 BCHAIN 모든 연결들(UBEC; Universal BCHAIN Everything Connections) 시스템 중 어느 하나인, 시스템.
In a computer security system based on artificial intelligence,
The above system comprises a memory storing programmed instructions; and
A processor connected to the memory and executing the programmed instructions and at least one database;
The system comprises a computer implemented system providing specified functions,
The above computer implementation system,
Critical Infrastructure Protection & Retribution (CIPR) through Cloud & Tiered Information Security (CTIS);
Implementing MACINT and Retribution through covert operations in cyberspace;
Logically Inferred Zero-database A-priori Realtime Defense (LIZARD);
Critical Thinking Memory & Perception (CTMP) or Lexical Objectivity Mining (LOM);
Linear Atomic Quantum Information Transfer (LAQIT); and
A system that is one of the Universal BCHAIN Everything Connections (UBEC) systems with a base connection coordination with an integrated node attached.
KR1020247032720A2016-01-242017-01-24Computer security based on artificial intelligencePendingKR20240151252A (en)

Applications Claiming Priority (20)

Application NumberPriority DateFiling DateTitle
US201662286437P2016-01-242016-01-24
US62/286,4372016-01-24
US201662294258P2016-02-112016-02-11
US62/294,2582016-02-11
US201662307558P2016-03-132016-03-13
US62/307,5582016-03-13
US201662323657P2016-04-162016-04-16
US62/323,6572016-04-16
US201662326723P2016-04-232016-04-23
US62/326,7232016-04-23
US15/145,800US20160330219A1 (en)2015-05-042016-05-04Method and device for managing security in a computer network
US15/145,8002016-05-04
US201662341310P2016-05-252016-05-25
US62/341,3102016-05-25
US15/264,744US20170076391A1 (en)2015-09-142016-09-14System of perpetual giving
US15/264,7442016-09-14
US201662439409P2016-12-272016-12-27
US62/439,4092016-12-27
KR1020187024400AKR20180105688A (en)2016-01-242017-01-24 Computer security based on artificial intelligence
PCT/US2017/014699WO2017127850A1 (en)2016-01-242017-01-24Computer security based on artificial intelligence

Related Parent Applications (1)

Application NumberTitlePriority DateFiling Date
KR1020187024400ADivisionKR20180105688A (en)2016-01-242017-01-24 Computer security based on artificial intelligence

Publications (1)

Publication NumberPublication Date
KR20240151252Atrue KR20240151252A (en)2024-10-17

Family

ID=59362181

Family Applications (2)

Application NumberTitlePriority DateFiling Date
KR1020247032720APendingKR20240151252A (en)2016-01-242017-01-24Computer security based on artificial intelligence
KR1020187024400ACeasedKR20180105688A (en)2016-01-242017-01-24 Computer security based on artificial intelligence

Family Applications After (1)

Application NumberTitlePriority DateFiling Date
KR1020187024400ACeasedKR20180105688A (en)2016-01-242017-01-24 Computer security based on artificial intelligence

Country Status (14)

CountryLink
EP (1)EP3405911A4 (en)
JP (2)JP2019511030A (en)
KR (2)KR20240151252A (en)
CN (2)CN115062297A (en)
AU (3)AU2017210132A1 (en)
BR (1)BR112018015014A2 (en)
CA (1)CA3051164A1 (en)
IL (3)IL306075B2 (en)
MX (1)MX2018009079A (en)
MY (1)MY195524A (en)
RU (1)RU2750554C2 (en)
SG (2)SG10202108336PA (en)
WO (1)WO2017127850A1 (en)
ZA (1)ZA201805385B (en)

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US11574287B2 (en)2017-10-102023-02-07Text IQ, Inc.Automatic document classification
WO2019104189A1 (en)*2017-11-272019-05-31Intuition Robotics, LtdSystem and method for optimizing resource usage of a robot
US11232523B2 (en)2018-01-022022-01-25Patrick SchurSystem and method for providing an intelligent operating interface and intelligent personal assistant as a service on a crypto secure social media and cross bridge service with continuous prosumer validation based on i-operant tags, i-bubble tags, demojis and demoticons
US11157295B2 (en)2018-01-022021-10-26Patrick SchurSystem and method for providing intelligent operant operating interface and intelligent personal assistant as a service on a crypto secure social media and cross bridge service with continuous prosumer validation based on i-operant+198 tags, i-bubble+198 tags, demojis+198 and demoticons+198
WO2019169486A1 (en)*2018-03-052019-09-12EzoTech Inc.Automated security testing system and method
US10965703B2 (en)2018-06-062021-03-30Reliaquest Holdings, LlcThreat mitigation system and method
US11709946B2 (en)2018-06-062023-07-25Reliaquest Holdings, LlcThreat mitigation system and method
US10785108B1 (en)2018-06-212020-09-22Wells Fargo Bank, N.A.Intelligent learning and management of a networked architecture
US11068464B2 (en)2018-06-262021-07-20At&T Intellectual Property I, L.P.Cyber intelligence system and method
US10868782B2 (en)2018-07-122020-12-15Bank Of America CorporationSystem for flagging data transmissions for retention of metadata and triggering appropriate transmission placement
WO2020016906A1 (en)*2018-07-162020-01-23Sriram GovindanMethod and system for intrusion detection in an enterprise
US11601442B2 (en)2018-08-172023-03-07The Research Foundation For The State University Of New YorkSystem and method associated with expedient detection and reconstruction of cyber events in a compact scenario representation using provenance tags and customizable policy
CN109189751B (en)*2018-09-182023-05-26平安科技(深圳)有限公司Data synchronization method based on block chain and terminal equipment
US11122136B2 (en)2018-10-222021-09-14Red Hat, Inc.Quantum payload service for facilitating communications between a quantum computing system and classical computing systems
US10740930B2 (en)2018-11-072020-08-11Love Good Color LLCSystems and methods for color selection and auditing
US11144334B2 (en)2018-12-202021-10-12Red Hat, Inc.Quantum computer task manager
KR102167767B1 (en)*2018-12-262020-10-19단국대학교 산학협력단Automatic build apparatus and method of application for generating training data set of machine learning
EP3693873B1 (en)*2019-02-072022-02-16AO Kaspersky LabSystems and methods for configuring a gateway for protection of automated systems
WO2020167586A1 (en)*2019-02-112020-08-20Db Cybertech, Inc.Automated data discovery for cybersecurity
FR3094600B1 (en)*2019-03-292022-05-06Orange Method for extracting at least one communication pattern in a communication network
US11546366B2 (en)2019-05-082023-01-03International Business Machines CorporationThreat information sharing based on blockchain
CN114064522B (en)*2019-05-092025-09-26北京忆芯科技有限公司A kind of computer
US11309974B2 (en)2019-05-092022-04-19Red Hat, Inc.Quantum channel routing utilizing a quantum channel measurement service
USD926810S1 (en)2019-06-052021-08-03Reliaquest Holdings, LlcDisplay screen or portion thereof with a graphical user interface
USD926809S1 (en)2019-06-052021-08-03Reliaquest Holdings, LlcDisplay screen or portion thereof with a graphical user interface
USD926811S1 (en)2019-06-062021-08-03Reliaquest Holdings, LlcDisplay screen or portion thereof with a graphical user interface
USD926782S1 (en)2019-06-062021-08-03Reliaquest Holdings, LlcDisplay screen or portion thereof with a graphical user interface
USD926200S1 (en)2019-06-062021-07-27Reliaquest Holdings, LlcDisplay screen or portion thereof with a graphical user interface
CN110187885B (en)*2019-06-102023-03-31合肥本源量子计算科技有限责任公司Intermediate code generation method and device for quantum program compiling
US12155646B2 (en)2019-06-102024-11-26Microsoft Technology Licensing, LlcAuthentication with random noise symbols and pattern recognition
CN111027623A (en)*2019-12-102020-04-17深圳供电局有限公司Data-enhanced intelligent terminal security level classification method and system
KR102299145B1 (en)*2020-02-252021-09-07서울과학기술대학교 산학협력단Cyber Physical System for digital forensic evidence collection
KR20210115728A (en)*2020-03-162021-09-27삼성전자주식회사Electronic apparatus and control method thereof
CN111460129B (en)*2020-03-272023-08-22泰康保险集团股份有限公司Method, device, electronic equipment and storage medium for generating identification
KR102164203B1 (en)*2020-04-032020-10-13주식회사 이지시큐Information security risk analysis automation system and operation method thereof
CN111659124B (en)*2020-05-272023-05-02太原理工大学 An Intelligent Discrimination System for Chess
WO2021243321A1 (en)*2020-05-292021-12-02Qomplx, Inc.A system and methods for score cybersecurity
CN111651756B (en)*2020-06-042022-05-31成都安恒信息技术有限公司Automatic substitution and filling method applied to operation and maintenance audit navicat
CN112035797A (en)*2020-08-312020-12-04山东诺蓝信息科技有限公司 A Power State Judgment Algorithm Based on Self-Learning
KR102233698B1 (en)*2020-09-292021-03-30주식회사 이지시큐method and system for setting risk level related to information protection based on confidentiality, integrity, availability
KR102233694B1 (en)*2020-09-292021-03-30주식회사 이지시큐Information security system providing cost reduction and effective authentication management
KR102232883B1 (en)*2020-09-292021-03-26주식회사 이지시큐Artificial intelligence system for authentication of information security management system
KR102233695B1 (en)*2020-09-292021-03-30주식회사 이지시큐Information and communication system for performing information protection risk analysis
US11606694B2 (en)2020-10-082023-03-14Surendra GoelSystem that provides cybersecurity in a home or office by interacting with internet of things devices and other devices
KR102280845B1 (en)2020-11-242021-07-22한국인터넷진흥원Method and apparatus for detecting abnormal behavior in network
WO2022126260A1 (en)*2020-12-152022-06-23Mastercard Technologies Canada ULCEnterprise server and method with universal bypass mechanism for automatically testing real-time cybersecurity microservice with live data
CN114745291A (en)*2020-12-232022-07-12北京国双科技有限公司Abnormal data cloud method and device, electronic equipment and storage medium
CN114765627B (en)*2021-01-142024-09-20京东科技控股股份有限公司Data transmission method, device, storage medium and computer program product
US12003542B2 (en)2021-01-142024-06-04International Business Machines CorporationRapid initial deployment database security model
CN112783661B (en)*2021-02-082022-08-12上海交通大学 A memory deduplication method and device suitable for container environment
WO2022169461A1 (en)*2021-02-082022-08-11Hewlett-Packard Development Company, L.P.Malware scans
CN112819590B (en)*2021-02-252023-03-10紫光云技术有限公司Method for managing product configuration information in cloud product service delivery process
CN113395593B (en)*2021-08-172021-10-29深圳佳力拓科技有限公司Data transmission method and device for digital television terminal with reduced information leakage
CN113961518B (en)*2021-09-082022-09-23北京百度网讯科技有限公司Log visual display method and device, electronic equipment and storage medium
US12052274B2 (en)2021-09-232024-07-30Armis Security Ltd.Techniques for enriching device profiles and mitigating cybersecurity threats using enriched device profiles
CN113986589B (en)*2021-10-092024-12-20广州博依特智能信息科技有限公司 Fault-tolerant strategy selection method and system for intelligent edge computing gateway
AU2022396273A1 (en)*2021-11-232024-05-30Strong Force TX Portfolio 2018, LLCTransaction platforms where systems include sets of other systems
CN114722400B (en)*2022-03-182024-12-20西安电子科技大学 A method, system, medium, device and terminal for side channel vulnerability detection
JP2023169666A (en)2022-05-172023-11-30日本電気株式会社Coordination system, coordination method, and program
KR102509102B1 (en)*2022-07-152023-03-09신헌주Fostering System Using Artificial Intelligence
CN115203689B (en)*2022-07-252023-05-02广州正则纬创信息科技有限公司Data security sharing method and system
CN115866083B (en)*2022-11-212025-08-01苏州浪潮智能科技有限公司Internet of things communication method, system, equipment and storage medium
CN115811457B (en)*2022-12-012025-07-15上海叠念信息科技有限公司 Integrated data acquisition method based on multi-source data fusion
CN115987176B (en)*2023-02-012023-09-12北京东土科技股份有限公司 Method, device and edge controller for zero return control of motor position
US20240289463A1 (en)*2023-02-282024-08-29International Business Machines CorporationModification of vulnerable pods
US12052140B1 (en)*2023-04-212024-07-30Capital One Services, LlcCompliance for cloud-based applications and computer systems using machine learning
US12399759B2 (en)2023-05-182025-08-26Wells Fargo Bank, N.A.Data enhancements for remote procedure call frameworks
CN116522895B (en)*2023-06-162023-09-12中国传媒大学 A method and device for text content authenticity assessment based on writing style
CN117134950B (en)*2023-08-042024-08-02华能信息技术有限公司Safety analysis method and system based on protocol state
CN117150551B (en)*2023-09-042024-02-27东方魂数字科技(北京)有限公司User privacy protection method and system based on big data
CN117540038B (en)*2024-01-102024-03-22中国信息通信研究院 Intelligent detection of false data synthesis method and system
CN118643518B (en)*2024-08-092024-11-08水发(北京)建设有限公司 Water resource optimization configuration system and method for near-zero sewage discharge in industrial parks
KR102819284B1 (en)*2024-08-202025-06-11주식회사 씨에이치엔네트웍스Method, apparatus, and system for monitoring input and output information of a chatbot service based on a generative artificial intelligence model and driving a security agent solution
CN118941063B (en)*2024-10-152025-01-21电子科技大学 A project resource collaborative planning method based on double triangle evolution mechanism
KR102851776B1 (en)2024-12-272025-08-27한국인터넷진흥원Method for identifying attack infrastructure and system therefor
CN120030064B (en)*2025-04-222025-08-08支付宝(杭州)信息技术有限公司 Vector retrieval method and device for protecting data privacy
CN120389916B (en)*2025-06-302025-08-22济南职业学院Network security vulnerability detection method and system based on artificial intelligence
CN120434415B (en)*2025-07-082025-09-23杭州市消费者权益保护委员会秘书处(杭州国家电子商务产品质量监测处置中心)Voice monitoring method and system for live selling of electronic commerce products

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
CN1245572A (en)*1997-10-302000-02-23全昌龙Computer security device
US20020165947A1 (en)*2000-09-252002-11-07Crossbeam Systems, Inc.Network application apparatus
WO2007117636A2 (en)*2006-04-062007-10-18Smobile Systems, Inc.Malware detection system and method for comprssed data on mobile platforms
US7991724B2 (en)*2006-12-212011-08-02Support Machines Ltd.Method and a computer program product for providing a response to a statement of a user
JP2008234409A (en)*2007-03-222008-10-02Toshiba Corp Security threat analysis support system and method, and security threat analysis support program
US9489647B2 (en)*2008-06-192016-11-08Csc Agility Platform, Inc.System and method for a cloud computing abstraction with self-service portal for publishing resources
US8353033B1 (en)*2008-07-022013-01-08Symantec CorporationCollecting malware samples via unauthorized download protection
JP5219783B2 (en)*2008-12-242013-06-26三菱電機株式会社 Unauthorized access detection device, unauthorized access detection program, recording medium, and unauthorized access detection method
WO2010123586A2 (en)*2009-04-242010-10-28Allgress, Inc.Enterprise information security management software for prediction modeling with interactive graphs
US20120123829A1 (en)*2009-07-302012-05-17CENX, Inc.Independent carrier ethernet interconnection platform
US10019677B2 (en)*2009-11-202018-07-10Alert Enterprise, Inc.Active policy enforcement
US8806568B2 (en)*2011-07-112014-08-12International Business Machines CorporationAutomatic generation of user account policies based on configuration management database information
US9386030B2 (en)*2012-09-182016-07-05Vencore Labs, Inc.System and method for correlating historical attacks with diverse indicators to generate indicator profiles for detecting and predicting future network attacks
US10096316B2 (en)*2013-11-272018-10-09Sri InternationalSharing intents to provide virtual assistance in a multi-person dialog
EP2725728B1 (en)*2012-10-292018-08-15ADVA Optical Networking SEMethod and device for assessing the performance of one or more packet synchronization services in a packet data transmission network
JP6086423B2 (en)*2012-11-142017-03-01国立研究開発法人情報通信研究機構 Unauthorized communication detection method by collating observation information of multiple sensors
WO2014094151A1 (en)*2012-12-212014-06-26Seccuris Inc.System and method for monitoring data in a client environment
RU2522019C1 (en)*2012-12-252014-07-10Закрытое акционерное общество "Лаборатория Касперского"System and method of detecting threat in code executed by virtual machine
US9406143B2 (en)*2013-02-212016-08-02Samsung Electronics Co., Ltd.Electronic device and method of operating electronic device
US9875494B2 (en)*2013-04-162018-01-23Sri InternationalUsing intents to analyze and personalize a user's dialog experience with a virtual personal assistant
KR20140136350A (en)*2013-05-202014-11-28삼성전자주식회사Method and apparatus for using a electronic device
CN103593610B (en)*2013-10-092016-08-31中国电子科技集团公司第二十八研究所Spyware self adaptation based on computer immunity induction and detection method
US9489514B2 (en)*2013-10-112016-11-08Verisign, Inc.Classifying malware by order of network behavior artifacts
RU2014111971A (en)*2014-03-282015-10-10Юрий Михайлович Буров METHOD AND SYSTEM OF VOICE INTERFACE
GB2524583B (en)*2014-03-282017-08-09Kaizen Reaux-Savonte CoreySystem, architecture and methods for an intelligent, self-aware and context-aware digital organism-based telecommunication system
US9519686B2 (en)*2014-04-092016-12-13International Business Machines CorporationConfidence ranking of answers based on temporal semantics
US9130906B1 (en)*2014-05-232015-09-08The United States Of America As Represented By The Secretary Of The NavyMethod and apparatus for automated secure one-way data transmission
WO2016001924A2 (en)*2014-06-302016-01-07Syqe Medical Ltd.Methods, devices and systems for pulmonary delivery of active agents

Also Published As

Publication numberPublication date
IL315165A (en)2024-10-01
BR112018015014A2 (en)2018-12-18
IL260711B1 (en)2023-10-01
MX2018009079A (en)2022-12-15
AU2024202003A1 (en)2024-04-18
CN115062297A (en)2022-09-16
CN109313687A (en)2019-02-05
SG10202108336PA (en)2021-08-30
RU2018129947A (en)2020-02-25
EP3405911A1 (en)2018-11-28
IL260711A (en)2018-09-20
IL306075B1 (en)2024-09-01
IL260711B2 (en)2024-02-01
IL306075B2 (en)2025-01-01
AU2022202786A1 (en)2022-05-19
JP2019511030A (en)2019-04-18
CN109313687B (en)2022-06-24
CA3051164A1 (en)2017-07-27
RU2750554C2 (en)2021-06-29
ZA201805385B (en)2022-07-27
WO2017127850A1 (en)2017-07-27
RU2018129947A3 (en)2020-07-08
KR20180105688A (en)2018-09-28
EP3405911A4 (en)2019-09-18
SG11201806117TA (en)2018-08-30
AU2017210132A1 (en)2018-08-23
MY195524A (en)2023-01-30
IL306075A (en)2023-11-01
JP2022141966A (en)2022-09-29

Similar Documents

PublicationPublication DateTitle
US20220030009A1 (en)Computer security based on artificial intelligence
CN109313687B (en)Computer security based on artificial intelligence
Al-Ghuraybi et al.Exploring the integration of blockchain technology, physical unclonable function, and machine learning for authentication in cyber-physical systems
Mateus-Coelho et al.Exploring cyber criminals and data privacy measures
Kapoor et al.Platform and Model Design for Responsible AI
Huang et al.Utilizing prompt engineering to operationalize cybersecurity
Ferrag et al.From Prompt Injections to Protocol Exploits: Threats in LLM-Powered AI Agents Workflows
JohnA Comprehensive Study on Security Challenges and Solutions in AI-Driven Cloud Platforms
McDaniel et al.Secure and Trustworthy Computing 2.0 Vision Statement
Ishtaiwi et al.Generative AI in Ransomware Evolution: Challenges and Countermeasures
ChukwuLeveraging the MITRE ATT&CK Framework to Enhance Organizations Cyberthreat Detection Procedures
KalyvaMachine Learning Security with Azure: Best practices for assessing, securing, and monitoring Azure Machine Learning workloads
HK40074590A (en)Computer security based on artificial intelligence
Khidzir et al.Guardians of Data: A Comprehensive Guide to Digital Data Protection
FalcoCybersecurity for urban critical infrastructure
Tabrizchi et al.Federated Cyber Intelligence: Federated Learning for Cybersecurity
TrilhoIntelligent Systems for Cyber Defence-An Architecture Framework for Cyber Defence Using Artificial Intelligence
Dixit et al.Teaching Tomorrow's Security: A Curriculum for 6G Communication Challenges
HK40004161B (en)Computer security based on artificial intelligence
HK40004161A (en)Computer security based on artificial intelligence
Muthukkumarasamy et al.Information Systems Security
BhatAnalysis of Cybersecurity for the Enterprise
Palomo OlivaresStructuring the future of cyber threats: the PREACT taxonomy
Sharma et al.Understanding AI in Cybersecurity and Secure AI
PabonPrevent Cyberattacks in Commercial Aircrafts Using a Biometric Provenance Access Control Framework

Legal Events

DateCodeTitleDescription
A107Divisional application of patent
PA0104Divisional application for international application

Comment text:Divisional Application for International Patent

Patent event code:PA01041R01D

Patent event date:20240930

Application number text:1020187024400

Filing date:20180823

PG1501Laying open of application
A201Request for examination
PA0201Request for examination

Patent event code:PA02012R01D

Patent event date:20241029

Comment text:Request for Examination of Application


[8]ページ先頭

©2009-2025 Movatter.jp