AUMENTAR LA REDUNDANCIA DE CAMPOS DE INFORMACIÓN DE LOS CLASIFICADORES ADAPTABLES DEL SISTEMA DE SEGURIDAD DE LA INFORMACIÓN.

AUMENTAR LOS CAMPOS DE INFORMACIÓN DE LOS CLASIFICADORES ADAPTABLES DEL SISTEMA IN SEGURIDAD DE LA FORMACIÓN..

AUMENTAR LA REDUNDANCIA DE CAMPOS DE INFORMACIÓN DE LOS CLASIFICADORES ADAPTABLES DEL SISTEMA DE SEGURIDAD DE LA INFORMACIÓN.

NESTERUK Gennady Filippovich, candidato de ciencias técnicas
MOLDOVYAN Alexander Andreevich, candidato de ciencias técnicas
NESTERUK Philip Gennadievich
VOSKRESENSKY Stanislav Igorevich
KOSTIN Andrey Aleksandrovich

AUMENTAR LA REDUNDANCIA DE CAMPOS DE INFORMACIÓN DE LOS CLASIFICADORES ADAPTABLES DEL SISTEMA DE SEGURIDAD DE LA INFORMACIÓN

Se consideran las cuestiones de aumentar la redundancia de los campos de información de las redes neurodifusas, necesarias para implementar las principales ventajas de la base de elementos de la red neuronal, como la adaptabilidad, la estabilidad funcional y el almacenamiento distribuido de información redundante. Se discute la necesidad de utilizar información sobre el estado del sistema de seguridad de la información (ISS) como una de las fuentes de datos de entrada para clasificadores neuro-difusos de los niveles jerárquicos del modelo adaptativo ISS.

En el modelo de seguridad adaptativo, el clasificador del nivel jerárquico de seguridad del sistema de información (SIS) contiene una red neuronal (NN) de autoaprendizaje clara para resolver el problema de agrupar vectores de entrada, una NN difusa, cuya estructura refleja un sistema de reglas de inferencia lógica difusa, un sistema de reglas difusas que describen el funcionamiento del clasificador teniendo en cuenta las valoraciones de expertos [1].

Al mismo tiempo, el sistema inicial de reglas difusas de inferencia lógica es formulado por un experto y puede resultar incompleto o contradictorio, y el tipo y los parámetros de las funciones de membresía que describen las variables de entrada y salida del sistema se eligen subjetivamente. y puede que no reflejen plenamente la realidad. Para eliminar estas deficiencias, se utiliza la propiedad de adaptabilidad de los sistemas difusos, que se implementa más plenamente en las redes neuronales difusas.

Una red neuronal difusa tiene una estructura idéntica a una red neuronal multicapa entrenada, por ejemplo, utilizando el algoritmo de retropropagación, pero las capas ocultas en él corresponden a etapas de inferencia lógica difusa [2]:

  • la capa de entrada de neuronas realiza la función de introducir fuzzificación basada en las funciones de membresía de entrada dadas;
  • las capas ocultas muestran un conjunto de reglas de inferencia difusas;
  • la capa de salida realiza la función de defuzzificación.

La principal ventaja de las redes neuronales difusas que implementan un sistema dado de reglas de inferencia difusa se llama transparencia estructural del campo de información NN (para análisis posterior ) después de completar la etapa de entrenamiento de redes neuronales. Para ilustrar la correspondencia entre las etapas de la inferencia difusa ascendente y la especialización de capas NN difusas, pasemos a laFig. 1 [3]:

Arroz. 1. Especialización de capas de redes neuronales difusas

  1. capa de funciones de membresía de entrada A1 A3, B1 – B3 convierte cada uno de los valores de entrada claros x1 y x2 en el grado de verdad de la premisa correspondiente para cada regla mAi ,mBi, i = 1, 2, 3(introducción de borrosidad);
  2. capa de reglas difusas R1 – R6 según el grado de verdad de las premisas mAi, mBi, i = 1, 2, 3
  3. genera subconjuntos difusos de conclusiones para cada una de las reglas mRi, i = 1,…6 (inferencia lógica difusa)

  4. la capa de funciones de membresía de salida С1, С2 combina subconjuntos difusos mRi, i = 1,…6, en subconjuntos difusos mСi, i = 1, 2 (composición);
  5. la capa de salida genera un valor de salida claro y a partir de subconjuntos difusos mСi, i = 1, 2

Si como funciones de membresía utilizamos un par de funciones complementarias del tipo L (grande) y S(pequeña), que suman 1 (funciones mutuamente complementarias), entonces para fines de clasificación es conveniente utilizar NN difusos similares al que se muestra en la Fig. 2.


Fig. 2. Aplicación de redes neuronales difusas con fines de clasificación

El clasificador difuso considerado identifica vectores de entrada con las mismas coordenadas (función de equivalencia lógica). En la capa de entrada, un par de declaraciones difusas (FU) mutuamente opuestas está formado por un par de funciones complementarias L y S para cada variable clara. Las NV, de acuerdo con la función lógica de equivalencia, se combinan en términos mediante la operación min de inferencia lógica sobre neuronas formales (FN) de la capa oculta de las NN. Operación final maxla composición se realiza en el FN, en cuyas salidas se implementa un par de funciones complementarias L y S.

El reverso de la especialización de capas de un NN difuso, que garantiza la transparencia estructural del campo de información , es la práctica ausencia de redundancia de información, lo que afecta negativamente la estabilidad funcional y la seguridad de los campos de información del NS ante influencias destructivas.

Manteniendo la especialización de capas individuales de redes neurodifusas de acuerdo con las reglas de inferencia lógica difusa, convenientes para el análisis posterior, es necesario introducir redundancia en el campo de información del clasificador neurodifuso [4]. La redundancia del campo de información crea los requisitos previos para el almacenamiento distribuido de información en los campos estructurados de una NN difusa en forma de un sistema de conexiones difusas complementarias [1], y la especialización estructural de las capas FS en una NN difusa lo hace posible analizar los resultados del entrenamiento de los campos de información de la NN.

Un sistema de reglas difusas de inferencia lógica puede identificarse con una descripción formal de las transformaciones lógicas de enunciados difusos. Como dispositivo para formalizar transformaciones sobre NV, puede utilizar un análogo de las formas normales para declaraciones claras en forma de formas normales disyuntivas (DNF) y conjuntivas (CNF). Además, el NV a la salida de la función S corresponde al valor inverso de alguna variable difusa, y L al valor directo de la misma variable (Fig. 3).


Fig. 3. Nodo de entrada del clasificador neuro-difuso

Si aplicamos un enfoque similar de duplicación complementaria a las capas ocultas de la red neuro-difusa, entonces podemos lograr el formación de resultados mutuamente opuestos tanto para la etapa de inferencia lógica como para la etapa de composición, lo que permite duplicar la redundancia de los campos de información del clasificador neurodifuso (Fig. 4).


Fig. 4. Estructura de un clasificador neurodifuso redundante

Se puede garantizar una mayor introducción de la redundancia del campo de información de un clasificador neurodifuso si el registro formal de un sistema de Las reglas de predicados difusos se presentan en una forma similar a DNF y CNF perfectos, es decir, términos que implementan la operación min.inferencia lógica en las salidas , representada por minterms (respectivamente, en las salidas — maxterms).

Parece apropiado utilizar la siguiente forma de introducir redundancia en el campo de información de un clasificador neurodifuso: aumentar la dimensión de la entrada datos agregando X al vector de entrada /b> vector Zestado actual del NIB (Fig. 5).


Fig. 5. Corrección del nivel jerárquico del clasificador neuro-difuso

Tal corrección de la estructura del NIB provoca no solo un aumento en la dimensión de los datos de entrada del clasificador, sino que también expande el sistema de reglas difusas de inferencia lógica, que tiene en cuenta no solo las coordenadas del vector de entrada X, pero también las coordenadas del vector Z del estado actual del NIB, lo que, a su vez, también conduce a un aumento en la redundancia del campo de información del clasificador neuro-difuso.

Durante el funcionamiento del clasificador, no solo se identifica el vector Y por los vectores X y Z , pero también por las propuestas С se forman para cambiar el estado del sistema.

Considere el modelo (Fig. 6) sistema de seguridad de la información adaptativo [1], que refleja cambios en la estructura de los niveles de protección similares a los que se muestran enFig. 5.


Fig. 6. Modelo de un sistema de seguridad de la información adaptativo

Para el nivel inmunológico de protección, las coordenadas del vector Z puede reflejar las características del sistema de TI, por ejemplo, como:

  • tipo de software instalado y sus actualizaciones;
  • servicios en ejecución;
  • soporte multitarea;
  • soporte para modo multiusuario;
  • la presencia en el sistema informático de dispositivos de entrada/salida como unidades de disquete, CD, unidades de DVD, puertos USB, etc.;
  • la presencia de dispositivos intercambiables en caliente, por ejemplo, matrices RAID , y otros medios de respaldo de la información;
  • posibilidad de acceso inalámbrico al sistema;
  • otros.

Para el nivel de protección del receptor, las coordenadas del vector Z pueden reflejar las características estructurales del NIB, por ejemplo, como:

  • conjunto de mecanismos de protección (MP) utilizados en la ISS;
  • distribución de PP en toda la jerarquía de la ISS;
  • actividad de los niveles de la ISS jerarquía;
  • actividad de los mecanismos de protección utilizados en la ISS;
  • indicadores de seguridad del sistema de TI, incluidas calificaciones;
  • otros.

La presencia de registros estatales como parte de los niveles jerárquicos del NIB conduce a un aumento significativo en la redundancia de los campos de información del NIB, tanto por un aumento en la dimensión de los vectores de entrada de los clasificadores, como por la posterior reducción. del registro formal del sistema de reglas difusas de inferencia lógica a un análogo de la forma perfecta (por ejemplo, SovDNF).

El análisis de los campos de información de clasificadores NN difusos entrenados de niveles de protección adaptativos, formados teniendo en cuenta el estado actual del sistema de TI y del sistema de seguridad de la información, permite evaluar la influencia de las coordenadas individuales de los vectores X y Z al vector Y(por ejemplo, para identificar amenazas) .

En particular, en el nivel inmunológico de protección es aconsejable. Al identificar amenazas, tenga en cuenta el estado del sistema de TI, incluidos los componentes de hardware y software del sistema de seguridad de la información, y en el receptor. nivel de protección: la actividad de MH individual, los niveles del sistema de seguridad de la información y los indicadores de seguridad del sistema de TI.

Literatura

  1. Nesteruk F.G., Osovetsky L.G., Nesteruk G.F., Voskresensky S.I. Hacia el modelado de un sistema de seguridad de la información adaptativo/Perspectiva de tecnologías de la información y sistemas inteligentes. 2004, núm. 4, pág. 25 – 31
  2. Kruglov V.V., Borisov V.V. Redes neuronales artificiales. Teoría y práctica. – 2ª ed., estereotipo. – M.: Hotline – Telecom, 2002.
  3. Negnevitsky M. Inteligencia artificial: una guía para sistemas inteligentes. Addison-Wesley, 2002.
  4. Nesteruk G.F., Kupriyanov M.S., Elizarov S.I. Hacia la solución del problema de la clasificación neurodifusa/Sat. informe VI Int. conf. SCM'2003. – San Petersburgo: SPGETU, 2003. vol. 1. p. 244 – 246.
  5. Osovetsky L.G., Nesteruk G.F., Bormotov V.M. Sobre la cuestión de la inmunología de los sistemas de información complejos/Izv. universidades Instrumentación. 2003. v.46, núm. 7, pág. 34 – 40.
  6. Lobashev M.E. Genética. – L.: Editorial de la Universidad de Leningrado, 1969.
  7. Melik-Gainazyan I.V. Procesos de información y realidad. M.: Nauka, 1998. – 192 p.
  8. Nesteruk G.F., Osovetsky L.G., Nesteruk F.G. Sobre el uso de redes neurodifusas en sistemas adaptativos de seguridad de la información/Neuroinformática — 2005: Actas de la VII Conferencia Científica y Técnica de toda Rusia. M.: MEPhI (TU), 2005, parte 1. Con. 163 – 171.
  9. Fuller R. Sistemas neuronales difusos. — Abo: Universidad Abo Akademi, 1995.
  10. Nesteruk G.Ph., Kupriyanov M.C. Sistemas neuronales-difusos con enlaces difusos/Proc. del VI-ésimo Int. Conferencia SCM'2003. – St.Pb: StPSETU “LETI”, 2003. v. 1. pág. 341 344.

    Мы используем cookie-файлы для наилучшего представления нашего сайта. Продолжая использовать этот сайт, вы соглашаетесь с использованием cookie-файлов.
    Принять