web-dev-qa-db-fra.com

Besoin de comprendre l'erreur d'exécution de requête parallèle

Aujourd'hui, nous avons connu une dégradation des performances sur notre serveur sql de production. Au moment où cela s'est produit, nous avons enregistré plusieurs "The query processor could not start the necessary thread resources for parallel query execution" les erreurs. La lecture que j'ai faite suggère que cela a à voir avec le nombre de processeurs à utiliser lors de l'exécution d'une requête complexe. Cependant, lorsque j'ai vérifié pendant la panne, notre CPU Utilization was only at 7%. Y a-t-il autre chose à quoi cela pourrait faire référence que je n'ai pas encore rencontré? Est-ce probablement un coupable de la dégradation des performances ou suis-je à la poursuite d'un hareng rouge?

Mes valeurs sp_configure pour cela sont les suivantes:

name                                minimum maximum config_value run_value
cost threshold for parallelism      0       32767   5            5
19
Lumpy

Il y a quelques mois, j'ai fait face à une situation similaire dans laquelle le paramètre MAXDOP était par défaut et une requête de fuite a épuisé tous les threads de travail.

Comme Remus l'a souligné, cela s'appelle famine de thread de travail .

Un vidage de mémoire sera créé sur votre serveur lorsque cette condition se produira.

Si vous utilisez 2008R2 + SP1 et plus, alors sys.dm_server_memory_dumps vous donnera également l'emplacement du fichier de vidage.

Revenons maintenant au problème:

Il y a 1 thread de surveillance du planificateur par nœud NUMA et puisque vous avez 2 nœuds NUMA, il y aura 2 threads de surveillance du planificateur qui sont responsables de la vérification de la santé de tous les planificateurs toutes les 60 secondes pour ce nœud NUMA particulier tout en s'assurant que le planificateur est bloqué ou ne pas.

Chaque fois qu'une nouvelle demande de travail est extraite de la file d'attente de travail des planificateurs, le compteur des processus de travail est incrémenté. Donc, si le planificateur a une demande de travail en file d'attente et n'a pas traité l'une des demandes de travail en 60 secondes, le planificateur est considéré comme bloqué.

En raison d'une requête de fuite ou d'un parallélisme étendu, une condition de threads de travail commence à être épuisée car tous les threads sont occupés par cette requête de fuite unique ou un blocage prolongé excessif et aucun travail ne peut être effectué à moins que ce processus offensant ne soit tué.

Votre meilleur pari est de régler d'abord votre paramètre Degré maximal de parallélisme . Valeur par défaut de 0 signifie que SQL Server peut utiliser tous les processeurs disponibles pour le traitement parallèle et en épuisant tous les threads de travail.

De nombreuses raisons peuvent conduire à l'épuisement des threads de travail:

  • Longues chaînes de blocage étendues entraînant le manque de threads de travail dans SQL Server
  • Parallélisme étendu conduisant également à l'épuisement des threads de travail
  • Attente prolongée pour tout type de "verrou" - verrous tournants, verrous. Un spinlock orphelin en est un exemple.

Référez-vous à ma réponse ici qui vous montrera comment vous pouvez calculer la valeur MAXDOP pour votre instance de serveur.

De plus, nous vous recommandons vivement de commencer à collecter Statistiques d'attente des informations sur votre instance de serveur de base de données.

20
Kin Shah

Il pourrait y avoir plusieurs raisons. Le plus probable est que vous n'aviez plus de travailleurs. Voir max_worker_threads . La condition est appelée "stravation des travailleurs". Les travailleurs pourraient être volés par l'un des multiples moyens (aucun d'entre eux n'entraînerait une utilisation élevée du processeur, btw), comme bloquer de nombreuses demandes ou faire des choses stupides dans CLR (par exemple, des requêtes HTTP).

Le symptôme que vous voyez est la victime du problème, pas la cause. Nous ne pouvons pas recommander une solution sans connaître la cause. Vous devez collecter les compteurs de perf, les DMV et consulter le ERRORLOG pour plus d'informations.

10
Remus Rusanu