Graphon

Réalisation d'un graphe aléatoire échangeable défini par un graphon. Le graphon est représenté sous la forme d'une carte thermique magenta (en bas à droite). Un graphe aléatoire de taille n {\displaystyle n} est généré en assignant indépendamment à chaque sommet k { 1 , , n } {\displaystyle k\in \{1,\dotsc ,n\}} une variable aléatoire latente U k U ( 0 , 1 ) {\displaystyle U_{k}\sim \mathrm {U} (0,1)} (valeurs sur l'axe vertical) et comprenant chaque arête ( k , l ) {\displaystyle (k,l)} indépendamment avec la probabilité f ( U k , U l ) {\displaystyle f(U_{k},U_{l})} . Par exemple, l'arête ( 3 , 5 ) {\displaystyle (3,5)} (vert, pointillé) est présente avec la probabilité f ( 0 , 72 , 0 , 9 ) {\displaystyle f(0,72,0,9)}  ; les cases vertes dans le carré de droite représentent les valeurs de ( u 3 , u 5 ) {\displaystyle (u_{3},u_{5})} et ( u 5 , u 3 ) {\displaystyle (u_{5},u_{3})} . La partie supérieure gauche montre la réalisation du graphe sous la forme d'une matrice d'adjacence.

En théorie des graphes et en statistique, un graphon (aussi connu sous le terme limite de graphes) est une fonction symétrique mesurable W : [ 0 , 1 ] 2 [ 0 , 1 ] {\displaystyle W:[0,1]^{2}\to [0,1]} , qui joue un rôle important dans l'étude des graphes denses. Les graphons sont à la fois une notion naturelle de limite d'une suite de graphes denses, et sont aussi les objets fondamentaux dans la définition des modèles de graphes aléatoires échangeables.

Les graphons sont liés aux graphes denses : d'une part, les modèles de graphes aléatoires définis par les graphons donnent lieu à des graphes denses presque sûrement. D'autre part, par le lemme de régularité de Szemerédi, les graphons capturent de nombreux aspects de la structure des graphes denses de grande taille.

Formulation statistique

Un graphon est une fonction symétrique mesurable W : [ 0 , 1 ] 2 [ 0 , 1 ] {\displaystyle W:[0,1]^{2}\to [0,1]} . Habituellement, un graphon est un modèle de graphes aléatoires échangeables selon le schéma suivant :

  1. À chaque sommet j {\displaystyle j} du graphe est attribuée une valeur aléatoire indépendante u j U [ 0 , 1 ] {\displaystyle u_{j}\sim U[0,1]}
  2. Une arête ( i , j ) {\displaystyle (i,j)} figure dans le graphe avec probabilité W ( u i , u j ) {\displaystyle W(u_{i},u_{j})} .

Un modèle de graphes aléatoires est un modèle de graphes aléatoires échangeable si et seulement s'il peut être défini en termes d'un graphon (éventuellement aléatoire) de cette manière. Le modèle basé sur un graphon fixe W {\displaystyle W} est parfois noté G ( n , W ) {\displaystyle \mathbb {G} (n,W)} , par analogie avec le modèle d'Erdős-Rényi (en) de graphes aléatoires. Un graphe généré à partir d'un graphon W {\displaystyle W} de cette manière est appelé un graphe W {\displaystyle W} -aléatoire.

Il résulte de cette définition et de la loi des grands nombres que, si W 0 {\displaystyle W\neq 0} , les modèles de graphes aléatoires échangeables sont denses presque sûrement[1].

Exemples

L'exemple le plus simple d'un graphon est W ( x , y ) p {\displaystyle W(x,y)\equiv p} pour une constante p [ 0 , 1 ] {\displaystyle p\in [0,1]} . Dans ce cas, le modèle de graphes aléatoires échangeables associé est le modèle d'Erdős-Rényi (en) G ( n , p ) {\displaystyle G(n,p)} qui contient chaque arête indépendamment avec probabilité p {\displaystyle p} .

Plus généralement, on peut utiliser un graphon qui est constant par morceaux, en divisant le carré unité en k × k {\displaystyle k\times k} blocs, et en posant W = p l m {\displaystyle W=p_{lm}} sur le bloc d'indices ( l , m ) {\displaystyle (l,m)} . Le modèle de graphes aléatoires échangeables qui en résulte est le modèle stochastique en blocs (en), une généralisation du modèle Erdős-Rényi.

On peut interpréter ce modèle comme un modèle de graphes aléatoires composé de k {\displaystyle k} graphes d'Erdős-Rényi distincts avec les paramètres p l l {\displaystyle p_{ll}} respectivement, avec des bigraphes entre eux, où chaque arête possible entre les blocs ( l , l ) {\displaystyle (l,l)} et ( m , m ) {\displaystyle (m,m)} est incluse indépendamment avec la probabilité p l m {\displaystyle p_{lm}} .

De nombreux autres modèles de graphes aléatoires populaires peuvent être compris comme des modèles de graphes aléatoires échangeables définis par un graphon ; un aperçu détaillé est donné dans l'article d'Orbanz et Roy[1].

Matrices d'adjacence échangeables

Un graphe aléatoire de taille n {\displaystyle n} peut être représenté comme une matrice d'adjacence aléatoire n × n {\displaystyle n\times n} . Afin d'imposer une cohérence entre des graphes aléatoires de tailles différentes, il est naturel d'étudier la séquence des matrices d'adjacence qui apparaissent comme sous-matrices supérieures n × n {\displaystyle n\times n} d'une matrice infinie de variables aléatoires ; cela permet de générer G n {\displaystyle G_{n}} en ajoutant un nœud à G n 1 {\displaystyle G_{n-1}} et en échantillonnant les arêtes ( j , n ) {\displaystyle (j,n)} pour j < n {\displaystyle j<n} . Dans cette perspective, les graphes aléatoires sont définis comme des tableaux infinis symétriques aléatoires ( X i j ) {\displaystyle (X_{ij})} .

L'importance fondamentale des variables aléatoires échangeables (en) dans les probabilités classiques incite à rechercher une notion analogue dans le cadre des graphes aléatoires. Une telle notion est donnée par les matrices échangeables conjointement, c'est-à-dire les matrices aléatoires satisfaisant

( X i j )   = d ( X σ ( i ) σ ( j ) ) {\displaystyle (X_{ij})\ {\overset {d}{=}}\,(X_{\sigma (i)\sigma (j)})}

pour toute permutation σ {\displaystyle \sigma } d'entiers naturels, où = d {\displaystyle {\overset {d}{=}}} est l'égalité en distribution. Intuitivement, cette condition signifie que la distribution des graphes aléatoires est inchangée par un réétiquetage de ses sommets ; autrement dit, les étiquettes des sommets ne portent aucune information.


Il existe un théorème de représentation pour les matrices d'adjacences aléatoires échangeables conjointement, analogue au théorème de représentation de De Finetti (en) pour les séquences échangeables. Il s'agit d'un cas particulier du théorème d'Aldous-Hoover (en) pour les tableaux échangeables conjointement et, dans ce cadre, il affirme que la matrice aléatoire ( X i j ) {\displaystyle (X_{ij})} est générée comme suit :

  1. échantilloner indépendamment u j U [ 0 , 1 ] {\displaystyle u_{j}\sim U[0,1]}
  2. X i j = X j i = 1 {\displaystyle X_{ij}=X_{ji}=1} indépendamment aléatoirement avec une probabilité W ( u i , u j ) , {\displaystyle W(u_{i},u_{j}),}

W : [ 0 , 1 ] 2 [ 0 , 1 ] {\displaystyle W:[0,1]^{2}\to [0,1]} est un graphon (éventuellement aléatoire). Autrement dit, modèle de graphes aléatoires a une matrice d'adjacence échangeable conjointement si et seulement si c'est un modèle de graphes aléatoires échangeables conjointement défini en termes d'un certain graphon.

Estimation de graphons

En raison de problèmes d'identifiabilité, il est impossible d'estimer la fonction graphon W {\displaystyle W} ou les positions latentes des nœuds u i {\displaystyle u_{i}}  ; il existe deux aproches principales pour l'estimation du graphon. Une direction vise à estimer W {\displaystyle W} à une classe d'équivalence près [2],[3], ou d'estimer la matrice de probabilités induite par W {\displaystyle W} [4],[5].

Formulation analytique

Tout graphe G {\displaystyle G} à n {\displaystyle n} sommets { 1 , 2 , , n } {\displaystyle \{1,2,\dots ,n\}} peut être identifié à sa matrice d'adjacence A G {\displaystyle A_{G}} . Cette matrice correspond à une fonction en escalier W G : [ 0 , 1 ] 2 [ 0 , 1 ] {\displaystyle W_{G}:[0,1]^{2}\to [0,1]} , définie par le partitionnement [ 0 , 1 ] {\displaystyle [0,1]} en intervalles I 1 , I 2 , , I n {\displaystyle I_{1},I_{2},\dots ,I_{n}} , où l'intervalle I j = ] ( j 1 ) / n , j / n [ {\displaystyle I_{j}=](j-1)/n,j/n[} et, pour ( x , y ) I i × I j {\displaystyle (x,y)\in I_{i}\times I_{j}} ,

W G ( x , y ) = A G i j {\displaystyle W_{G}(x,y)={A_{G}}_{ij}} .

La fonction W G {\displaystyle W_{G}} est le graphon associé' au graphe G {\displaystyle G} .

En général, pour une suite de graphes ( G n ) {\displaystyle (G_{n})} dont le nombre de sommets tend vers l'infini, on peut analyser le comportement limite de la suite en considérant le comportement limite des fonctions ( W G n ) {\displaystyle (W_{G_{n}})} . Si ces graphes convergent (selon une définition appropriée de convergence), alors la limite de ces graphes correspond à la limite de ces fonctions associées.

Cela motive la définition d'un graphon (abréviation de "fonction de graphe") comme une fonction symétrique mesurable W : [ 0 , 1 ] 2 [ 0 , 1 ] {\displaystyle W:[0,1]^{2}\to [0,1]} qui capte la notion de limite d'une suite de graphes. Il s'avère que pour des suites de graphes denses, plusieurs notions de convergence apparemment distinctes sont équivalentes et que, pour chacune d'elles, l'objet limite naturel est un graphon[6].

Exemples

Exemple 1: On considère une suite aléatoire ( G n ) {\displaystyle (G_{n})} graphes d'Erdős-Rényi G n = G ( n , p ) {\displaystyle G_{n}=G(n,p)} avec un paramètre fixe p {\displaystyle p} . Intuitivement, comme n {\displaystyle n} tend vers l'infini, la limite de cette suite de graphes est déterminée uniquement par la densité des arêtes de ces graphes.

Dans l'espace des graphons, il s'avère qu'une telle suite converge presque sûrement vers fonction constante W ( x , y ) p {\displaystyle W(x,y)\equiv p} , ce qui correspond à l'intuition ci-dessus.

Exemple 2: On considère la suite ( H n ) {\displaystyle (H_{n})} de demi-graphes définie en prenant pouur H n {\displaystyle H_{n}} le graphe bipartite sur les sommets 2 n {\displaystyle 2n} u_1, u_2, \dots, u_ n {\displaystyle n} et v 1 , v 2 , , v n {\displaystyle v_{1},v_{2},\dots ,v_{n}} tels u i {\displaystyle u_{i}} soit adjacent à v j {\displaystyle v_{j}} quand i j {\displaystyle i\leq j} . Si les sommets sont énumérés dans l'ordre, alors la matrice d'adjacence A H n {\displaystyle A_{H_{n}}} a deux coins qui sont des matrices blocs « demi-carrés » remplis de 1, le reste des entrées étant égal à zéro. Par exemple, la matrice d'adjacence de H 3 {\displaystyle H_{3}} est donnée par

[ 0 0 0 1 1 1 0 0 0 0 1 1 0 0 0 0 0 1 1 0 0 0 0 0 1 1 0 0 0 0 1 1 1 0 0 0 ] . {\displaystyle {\begin{bmatrix}0&0&0&1&1&1\\0&0&0&0&1&1\\0&0&0&0&0&1\\1&0&0&0&0&0\\1&1&0&0&0&0\\1&1&1&0&0&0\end{bmatrix}}.}

Quand n {\displaystyle n} croît, ces deux coins deviennent lisses. Conformément à cette intuition, la suite ( H n ) {\displaystyle (H_{n})} converge vers le demi-graphon W {\displaystyle W} défini par W ( x , y ) = 1 {\displaystyle W(x,y)=1} lorsque | x y | 1 / 2 {\displaystyle |x-y|\geq 1/2} et W ( x , y ) = 0 {\displaystyle W(x,y)=0} sinon.

Exemple 3: On considère une suite ( K n , n ) {\displaystyle (K_{n,n})} de graphes bipartis complets avec deux parties de même taille. On ordonne les sommets en plaçant tous les sommets d'une partie avant les sommets de l'autre partie. La matrice d'adjacence de ( K n , n ) {\displaystyle (K_{n,n})} est semblable à une matrice de diagonale, avec deux blocs de uns et deux blocs de zéros. Par exemple, la matrice d'adjacence de K 2 , 2 {\displaystyle K_{2,2}} est donnée par

[ 0 0 1 1 0 0 1 1 1 1 0 0 1 1 0 0 ] . {\displaystyle {\begin{bmatrix}0&0&1&1\\0&0&1&1\\1&1&0&0\\1&1&0&0\end{bmatrix}}.}

Quand n {\displaystyle n} croît, cette structure en blocs de la matrice d'adjacence demeure, de sorte que cette suite de graphes converge vers un graphon « bipartite complet » W {\displaystyle W} défini par W ( x , y ) = 1 {\displaystyle W(x,y)=1} si min ( x , y ) 1 / 2 {\displaystyle \min(x,y)\leq 1/2} et max ( x , y ) > 1 / 2 {\displaystyle \max(x,y)>1/2} , et W ( x , y ) = 0 {\displaystyle W(x,y)=0} sinon.

Exemple 4: On considère la suite ( K n , n ) {\displaystyle (K_{n,n})} de l'exemple précédent. Si on ordonne les sommets en alternant entre les deux parties, la matrice d'adjacence a une structure d'échiquier de zéros et de uns. Par exemple, dans cet ordre, la matrice d'adjacence de K 2 , 2 {\displaystyle K_{2,2}} est donnée par

[ 0 1 0 1 1 0 1 0 0 1 0 1 1 0 1 0 ] . {\displaystyle {\begin{bmatrix}0&1&0&1\\1&0&1&0\\0&1&0&1\\1&0&1&0\end{bmatrix}}.}

Quand n {\displaystyle n} croît, la matrice d'adjacence devient un échiquier de plus en plus fin. Malgré ce comportement, la limite de ( K n , n ) {\displaystyle (K_{n,n})} doit unique et égale au graphon de l'exemple 4. Cela signifie que la définition d'une limite d'une suite de graphes doit être indépendante de ré-étiquetages des sommets.

Exemple 5: On considère une suite aléatoire ( G n ) {\displaystyle (G_{n})} de graphes aléatoires pour W {\displaystyle W} en posant G n G ( n , W ) {\displaystyle G_{n}\sim \mathbb {G} (n,W)} pour un graphon fixe W {\displaystyle W} . Alors, et comme dans le premier exemple de cette section, la suite ( G n ) {\displaystyle (G_{n})} converge vers W {\displaystyle W} presque sûrement.

Exemple 6: Étant donné le graphe G {\displaystyle G} avec graphon associé W = W G {\displaystyle W=W_{G}} , on peut retrouver des paramètres du graphe G {\displaystyle G} en récupérant des transformations de W {\displaystyle W} .

Par exemple, la densité des arêtes (c'est-à-dire le degré moyen divisé par le nombre de sommets) de G {\displaystyle G} est donnée par l'intégrale

0 1 0 1 W ( x , y ) d x d y {\displaystyle \int _{0}^{1}\int _{0}^{1}W(x,y)\;\mathrm {d} x\,\mathrm {d} y} .

En effet, W {\displaystyle W} est à valeurs dans { 0 , 1 } {\displaystyle \{0,1\}} , et chaque chaque ( i , j ) {\displaystyle (i,j)} de G {\displaystyle G} correspond à une région I i × I j {\displaystyle I_{i}\times I_{j}} de surface 1 / n 2 {\displaystyle 1/n^{2}} W {\displaystyle W} est égal à 1 {\displaystyle 1} .

Un raisonnement similaire montre que le nombre de triangles de G {\displaystyle G} est égal à

1 6 0 1 0 1 0 1 W ( x , y ) W ( y , z ) W ( z , x ) d x d y d z . {\displaystyle {\frac {1}{6}}\int _{0}^{1}\int _{0}^{1}\int _{0}^{1}W(x,y)W(y,z)W(z,x)\;\mathrm {d} x\,\mathrm {d} y\,\mathrm {d} z.}

Notions de convergence

Il existe de nombreuses façons de mesurer la distance entre deux graphiques. Si on s'intéresse aux métriques qui « préservent » les propriétés extrémales des graphes, on doit se limiter aux métriques qui considèrent que des graphes aléatoires sont similaires. Par exemple, si on tire aléatoirement deux graphes indépendamment dans un modèle d'Erdős-Rényi G ( n , p ) {\displaystyle G(n,p)} pour certains p {\displaystyle p} fixes, la distance entre ces deux graphes pour une métrique « raisonnable » doit être proche de zéro avec une grand probabilité pour les grands entiers n {\displaystyle n} .

Il existe deux métriques naturelles qui se comportent bien en ce sens sur les graphiques aléatoires denses. La première est une métrique d'échantillonnage, pour laquelle deux graphes sont proches si les distributions de leurs sous-graphes sont proches. La seconde est une métrique de discrépance (en) des arêtes, pour lasuelle deux graphes sont proches lorsque les densités de leurs arêtes sont proches sur tous leurs sous-ensembles correspondants de sommets.

Miraculeusement, une suite de graphes converge lorsque pour l'une des distances précisément lorsqu'elle converge pour l'autre. De plus, les objets limite pour les deux distances sont des graphons. L'équivalence de ces deux notions de convergence reflète l'équivalence des différentes notions de graphes quasi-aléatoires au sens de Fan_Chung[7].

Nombre de sous-graphes

Une façon de mesurer la distance entre deux graphes G {\displaystyle G} et H {\displaystyle H} est de comparer leurs nombres de sous-graphes. CEn d'autres termes, pour chaque graphe F {\displaystyle F} , on compare le nombre de copies de F {\displaystyle F} dans G {\displaystyle G} et dans H {\displaystyle H} . Si ces nombres sont proches pour chaque graphe F {\displaystyle F} , alors intuitivement G {\displaystyle G} et H {\displaystyle H} sont des graphes d'apparence similaire.

Densité homomorphe

Il est équivalent de considérer des homomorphismes des graphes plutôt que directement les sous-graphes. En effet, pour de grands graphes denses, le nombre de sous-graphes et le nombre d'homomorphismes de graphes à partir d'un graphe fixe sont asymptotiquement égaux.

Étant donné les deux graphes F {\displaystyle F} et G {\displaystyle G} , la densité d'homomorphismes (en) t ( F , G ) {\displaystyle t(F,G)} de F {\displaystyle F} dans G {\displaystyle G} est définie comme étant le nombre de morphismes de graphes de F {\displaystyle F} dans G {\displaystyle G} . En d'autres termes, t ( F , G ) {\displaystyle t(F,G)} est la probabilité pour qu'une fonction choisie au hasard des sommets de F {\displaystyle F} dans les sommets de G {\displaystyle G} envoie des sommets adjacents dans F {\displaystyle F} sur des sommets adjacents dans G {\displaystyle G} .

Les graphons offrent un moyen simple de calculer les densités d'homomorphismes. En effet, pour un graphe G {\displaystyle G} avec graphon associé W G {\displaystyle W_{G}} et un autre graphe F {\displaystyle F} , on a

t ( F , G ) = ( i , j ) E ( F ) W G ( x i , x j ) { d x i } i V ( F ) {\displaystyle t(F,G)=\int \prod _{(i,j)\in E(F)}W_{G}(x_{i},x_{j})\;\left\{\mathrm {d} x_{i}\right\}_{i\in V(F)}} ,

où l'intégrale est multidimensionnelle, et évaluée sur l' hypercube unité [ 0 , 1 ] V ( F ) {\displaystyle [0,1]^{V(F)}} . Ceci découle de la définition d'un graphon associé, quand on considère le cas où l'intégrale ci-dessus vaut 1 {\displaystyle 1} . On peut alors étendre la définition de la densité d'homomorphismes à des graphons arbitraires W {\displaystyle W} , en utilisant la même intégrale et en définissant

t ( F , W ) = ( i , j ) E ( F ) W ( x i , x j ) { d x i } i V ( F ) {\displaystyle t(F,W)=\int \prod _{(i,j)\in E(F)}W(x_{i},x_{j})\;\left\{\mathrm {d} x_{i}\right\}_{i\in V(F)}}

pour tout graphe F {\displaystyle F} .

Limites en termes de densité d'homomorphismes

Dans ce cadre, une suite de graphes ( G n ) {\displaystyle (G_{n})} est dite convergente si, pour chaque graphe fixé F {\displaystyle F} , la suite de densités d'homomorphismes ( t ( F , G n ) ) {\displaystyle \left(t(F,G_{n})\right)} converge. Bien que cela ne résulte pas immédiatement de la définition, si ( G n ) {\displaystyle (G_{n})} converge en ce sens, alors il existe un graphon W {\displaystyle W} tel que, pour chaque graphon F {\displaystyle F} , on ait également

lim n t ( F , G n ) = t ( F , W ) {\displaystyle \lim _{n\to \infty }t(F,G_{n})=t(F,W)} .

Distance de coupe

Soient G {\displaystyle G} et H {\displaystyle H} deux graphes sur le même ensemble de sommets. Une façon de mesurer leur distance est de se restreindre aux sous-ensembles X , Y {\displaystyle X,Y} de l'ensemble des sommets, et pour chaque paire de ces sous-ensembles, de comparer le nombre d'arêtes e G ( X , Y ) {\displaystyle e_{G}(X,Y)} de X {\displaystyle X} vers Y {\displaystyle Y} dans G {\displaystyle G} au nombre d'arêtes e H ( X , Y ) {\displaystyle e_{H}(X,Y)} entre X {\displaystyle X} et Y {\displaystyle Y} dans H {\displaystyle H} . Si ces nombres sont proches (par rapport au nombre total de sommets) pour chaque paire de sous-ensembles, cela suggère que G {\displaystyle G} et H {\displaystyle H} sont des graphes similaires.

Formellement, on définit, pour toute fonction symétrique mesurable f : [ 0 , 1 ] 2 R {\displaystyle f:[0,1]^{2}\to \mathbb {R} } , la norme de coupe comme étant la quantité

f = sup S , T [ 0 , 1 ] | S T f ( x , y ) d x d y | {\displaystyle \lVert f\rVert _{\square }=\sup _{S,T\subseteq [0,1]}\left|\int _{S}\int _{T}f(x,y)\;\mathrm {d} x\,\mathrm {d} y\right|}

prise sur tous les sous-ensembles mesurables S , T {\displaystyle S,T} de l'intervalle unité[6].

Cette norme étend la notion de distance définie plus haut, car pour deux graphes G {\displaystyle G} et H {\displaystyle H} avec un même ensemble V {\displaystyle V} de n {\displaystyle n} sommets, la norme de coupe avec les graphons associés

W G W H = 1 n 2 max X , Y V | e G ( X , Y ) e H ( X , Y ) | {\displaystyle \lVert W_{G}-W_{H}\rVert _{\square }={\frac {1}{n^{2}}}\max _{X,Y\subseteq V}\left|e_{G}(X,Y)-e_{H}(X,Y)\right|}

permet de calculer la discrépance maximale des densités d'arêtes entre G {\displaystyle G} et H {\displaystyle H} . Cette définition peut être utilisée aussi lorsque les graphees ne sont pas sur le même ensemble de sommets.

Cette mesure de distance a encore un défaut : elle peut attribuer une distance non nulle à deux graphes isomorphes. Pour s'assurer que des graphes isomorphes sont à distance nulle, il faut calculer la norme de coupe minimale sur tous les réétiquetages possibles des sommets.

Cela motive la définition de la distance de coupe entre deux graphons W {\displaystyle W} et U {\displaystyle U} comme étant

δ ( U , W ) = inf φ U W φ {\displaystyle \delta _{\square }(U,W)=\inf _{\varphi }\lVert U-W^{\varphi }\rVert _{\square }}

W φ ( x , y ) = W ( φ ( x ) , φ ( y ) ) {\displaystyle W^{\varphi }(x,y)=W(\varphi (x),\varphi (y))} est la composition de W {\displaystyle W} avec l'application φ {\displaystyle \varphi } , et l'infimum est pris sur toutrd les mesures bijections préservant les mesures de l'intervalle unité dans lui-même[8]. La distance de coupe entre deux graphes est définie comme étant la distance de coupe entre les graphonss associés.


Espace métrique

Pour transformer la distance de coupure en une distance d'espace métrique, on considère l'ensemble de tous les graphons et on identifie deux graphons U W {\displaystyle U\sim W} quand δ ( U , W ) = 0 {\displaystyle \delta _{\square }(U,W)=0} . L'espace de graphons résultant, noté W ~ 0 {\displaystyle {\tilde {\mathcal {W}}}_{0}} , est un espace métrique pour δ {\displaystyle \delta _{\square }} .

Cet espace est compact. De plus, l'ensemble de tous les graphes est une partie dense de l'espace. Les graphes sont identifiés comme des fonctions en escalier à valeurs dans { 0 , 1 } {\displaystyle \{0,1\}} sur le carré unité. Ces observations montrent que l'espace des graphons est l'complété de l'espace des graphes par rapport à la distance de coupe.

Applications

Lemme de régularité

En utilisant la compacité de l'espace des graphons ( W ~ 0 , δ ) {\displaystyle ({\tilde {\mathcal {W}}}_{0},\delta _{\square })} , on peut prouver des versions plus fortes du lemme de régularité de Szemerédi.

Conjecture de Sidorenko

Article détaillé : conjecture de Sidorenko.

La nature analytique des graphons permet une plus grande flexibilité dans l'approches des inégalités concernant les homomorphismes.

Par exemple, la conjecture de Sidorenko est un problème ouvert majeur en théorie des graphes extrémaux ; elle affirme que pour tout graphe G {\displaystyle G} à n {\displaystyle n} sommets avec degré moyen p n {\displaystyle pn} pour un p [ 0 , 1 ] {\displaystyle p\in [0,1]} , et pour un graphe bipartite H {\displaystyle H} à v {\displaystyle v} sommets et e {\displaystyle e} arêtes, le nombre de morphismes de H {\displaystyle H} dans G {\displaystyle G} est au moins égal à p e n v {\displaystyle p^{e}n^{v}} [9]. Puisque cette quantité est le nombre moyen de sous-graphes étiquetés de H {\displaystyle H} d'un graphe aléatoire G ( n , p ) {\displaystyle G(n,p)} , la conjecture peut être interprétée comme l'énoncé que, dans tout graphe bipartite H {\displaystyle H} , un graphe aléatoire atteint (en moyenne) le nombre minimum de copies de H {\displaystyle H} parmi tous les graphes ayant une certaine densité d'arêtes fixée.

De nombreuses approches de la conjecture de Sidorenko formulent le problème comme une inégalité intégrale sur des graphes, ce qui permet ensuite d'attaquer le problème en utilisant d'autres approches analytiques[10].

Généralisations

Les graphons sont naturellement associés aux graphes simples denses. Il existe des extensions de ce modèle à des graphes orientés denses pondérés, souvent appelés graphons décorés[11]. Il existe également des extensions récentes à la famille des graphes creux, tant du point de vue des modèles de graphes aléatoires[12] que de la théorie des limites des graphes[13],[14].

Notes et références

  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Graphon » (voir la liste des auteurs).
  1. a et b P. Orbanz et D.M. Roy, « Bayesian Models of Graphs, Arrays and Other Exchangeable Random Structures », IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 37, no 2,‎ , p. 437–461 (PMID 26353253, DOI 10.1109/tpami.2014.2334607, arXiv 1312.7857)
  2. (en) Patrick J. Wolfe et Sofia C. Olhede, « Nonparametric graphon estimation », .
  3. David Choi et Patrick J. Wolfe, « Co-clustering separately exchangeable network data », The Annals of Statistics, vol. 42, no 1,‎ , p. 29–63 (ISSN 0090-5364, DOI 10.1214/13-AOS1173, arXiv 1212.4093).
  4. Chao Gao, Yu Lu et Harrison H. Zhou, « Rate-optimal graphon estimation », The Annals of Statistics, vol. 43, no 6,‎ , p. 2624–2652 (DOI 10.1214/15-AOS1354, arXiv 1410.5837)
  5. Zhang Yuan, Levina Elizaveta et Zhu Ji, « Estimating network edge probabilities by neighbourhood smoothing », Biometrika, vol. 104, no 4,‎ , p. 771–783 (DOI 10.1093/biomet/asx042, lire en ligne).
  6. a et b László Lovász, Large Networks and Graph Limits, American Mathematical Society, coll. « American Mathematical Society colloquium publications » (no 60), , 475 p. (ISBN 9780821890851)
  7. Fan R. K. Chung, Ronald L. Graham et R. M. Wilson, « Quasi-random graphs », Combinatorica, vol. 9, no 4,‎ , p. 345–362 (DOI 10.1007/BF02125347)
  8. D. Glasscock, « What is a graphon », Notices of the American Mathematical Society, vol. 62, no 1,‎ , p. 46–48 (arXiv 1611.00718)
  9. A. Sidorenko, « A correlation inequality for bipartite graphs », Graphs and Combinatorics, vol. 9, nos 2–4,‎ , p. 201–204 (DOI 10.1007/BF02988307)
  10. H. Hatami, « Graph norms and Sidorenko's conjecture », Israel Journal of Mathematics, vol. 175, no 1,‎ , p. 125–150 (DOI 10.1007/s11856-010-0005-1, arXiv 0806.0047)
  11. Vinay A. Vaishampayan, « Classification in a Large Network », 2019 IEEE International Symposium on Information Theory (ISIT),‎ , p. 1807–1811 (DOI 10.1109/ISIT.2019.8849301, arXiv 1902.05531)
  12. Victor Veitch et Daniel M. Roy, « The Class of Random Graphs Arising from Exchangeable Random Measures », ArXiv,‎ (arXiv 1512.03099)
  13. Christian Borgs, Jennifer T. Chayes, Henry Cohn et Yufei Zhao, « An Lp theory of sparse graph convergence I: limits, sparse random graph models, and power law distributions », Transactions of the American Mathematical Society, vol. 372, no 5,‎ , p. 3019–3062 (DOI 10.1090/tran/7543, arXiv 1401.2906)
  14. Christian Borgs, Jennifer T. Chayes, Henry Cohn et Yufei Zhao, « An Lp theory of sparse graph convergence II: LD convergence, quotients, and right convergence », The Annals of Probability, vol. 46, no 1,‎ , p. 337–396 (DOI 10.1214/17-AOP1187, arXiv 1408.0744)
  • icône décorative Portail des mathématiques
  • icône décorative Portail des probabilités et de la statistique