Métaux de surfaceLivre blanc
15 mars 2017

Pseudoflow expliqué

Julian Poniewierski (ancien employé de Deswik) parle de l'optimisation des fosses Deswik Pseudoflow par rapport à l'optimisation des fosses Whittle LG.

1. Introduction

Le but de ce document est d'informer l'utilisateur sur Deswik Pseudoflow, dans le contexte du processus d'optimisation des fosses le plus accepté de l'industrie minière, qui utilise le logiciel Whittle basé sur l'algorithme de Lerchs-Grossman (LG).


En résumé, les deux sont des variations d'algorithmes de flux de réseau qui permettent d'obtenir le même résultat, l'algorithme pseudoflow étant un algorithme plus efficace sur le plan informatique, développé environ 35 ans après l'algorithme original de Lerchs-Grossman (1965).


Il a fallu 20 ans à partir de la formulation de l'algorithme de LG pour qu'il soit incorporé dans le premier logiciel disponible dans le commerce (Whittle Three-D), 10 ans de plus avant qu'il ne représente une approche généralisée de l'optimisation des mines à ciel ouvert.


Au cours des 30 dernières années, Whittle et l'algorithme LG sont devenus synonymes d'optimisation des fosses à ciel ouvert, et souffrent désormais du fait qu'ils sont devenus un terme générique pour le processus d'optimisation de fosse, une situation similaire à la marque Hoover sur le marché des aspirateurs au Royaume-Uni.


15 ans se sont écoulés depuis la formulation de l'algorithme pseudoflow et au moins trois mises en œuvre commerciales sont disponibles, y compris celle de Deswik.


Tout comme « hoover » n'a pas besoin d'être un aspirateur Hoover - en effet, l'aspirateur Dyson est reconnu comme beaucoup plus efficace pour l'aspiration -, l'algorithme pseudoflow devrait désormais être utilisé pour remplacer l'algorithme LG pour « la réduction par étapes » de l'optimisation de votre fosse.


Il est à noter que la mise en œuvre de Deswik n'est pas limitée (ni facilitée) par des tableaux de paramètres et des entrées de configuration complexes

fournis dans le logiciel Whittle pour les calculs des coûts et des revenus. Pour l'implémentation de pseudoflow de Deswik,

l'utilisateur doit calculer les revenus et les coûts de chaque bloc du modèle de blocs utilisé et effectuer sa propre régularisation des blocs dans l'environnement Deswik.CAD. L'utilisateur contrôle donc entièrement la façon dont les coûts et les revenus sont calculés et affectés. Toutefois, pour cela, l'utilisateur doit être parfaitement familier avec son modèle de blocs, ses structures de coûts et ses paramètres de revenus (ce qui, selon nous, est une « bonne chose » ). Cela permet à la configuration d'être aussi flexible que l'utilisateur l'exige (non limitée par les boîtes de dialogue de configuration du modèle).

2. Historique de l'optimisation de fosses


2.1 Processus manuel


Avant le développement de méthodes informatisées d'optimisation et de conception de fosses, les ingénieurs miniers utilisaient des méthodes d'interprétation manuelle avec évaluation sur des coupes transversales dessinées manuellement (sur papier, toile ou film), puis une conception manuelle de fosse.


Dans la méthode manuelle, une optimisation simple de la profondeur économique de la fosse était généralement effectuée avec une calculatrice manuelle (ou règle à calcul) pour les gisements de forme régulière en utilisant des surfaces de section transversale incrémentielle, pour le minerai et les stériles, et une pente globale de la fosse. Le ratio de déblayage incrémentiel (le ratio du tonnage de stériles qui doit être déplacé pour accéder à l'incrément de masse suivant de minerai auquel il sera accédé) sur chaque section transversale est comparé au ratio de déblayage pour la teneur en minerai estimée et les revenus et les coûts appropriés.


L'enveloppe finale de la fosse a ensuite été produite en dessinant des enveloppes de fosse de plus en plus grandes sur une section transversale, de telle sorte que

le dernier incrément affichait un ratio de découverture égal au maximum prévu par la conception.


Il s'agissait d'une approche très exigeante en main-d'œuvre qui ne pouvait déterminer qu'approximativement la fosse optimale. La conception a dû être réalisée sur un grand nombre de sections transversales et était encore imprécise, car elle ne traitait le problème qu'en deux dimensions. Dans les cas où la teneur est très variable, le problème devenait extrêmement complexe et reposait fortement sur l'« instinct » d'un concepteur expérimenté utilisant une méthode impliquant des essais et des enseignements tirés d'erreurs.



2.2 Cône flottant


Pana (1965) a introduit un algorithme appelé cône mobile (ou flottant). La méthode a été développée par Kennecott Copper Corporation au début des années 1960 (McCarthy, 1993) et a été la première tentative d'optimisation informatisée de la fosse, nécessitant un modèle informatisé par blocs en trois dimensions du gisement minéral.


Les limites ultimes projetées de la fosse sont développées à l'aide d'une technique de « cône » en mouvement (ou plutôt d'un tronc d'un cône inversé, c'est-à-dire que l'extrémité « pointue » a été coupée pour atteindre une zone d'exploitation minimale). Le cône est déplacé dans l'espace du modèle de blocs pour générer une série d'incréments d'extraction en forme de troncs interconnectés.


Toutefois, cette approche présente l'inconvénient de créer des cônes qui se chevauchent et est incapable d'examiner toutes les combinaisons de blocs adjacents. Pour cette raison, l'algorithme ne donne pas de résultats réalistes de manière consistante.


Mintec/MineSight (une société basée aux États-Unis et un fournisseur de solutions précoces à Kennecott) a été l'une des premières à mettre en œuvre l'algorithme à cône flottant (et peut encore l'offrir dans sa suite de solutions).



2.3 Lerchs-Grossman


C'est également en 1965 que Lerchs et Grossmann ont publié un article introduisant deux approches de modélisation pour résoudre le problème d'optimisation de la fosse à ciel ouvert. L'algorithme de Lerchs-Grossman (LG) est bien documenté dans la littérature technique (Lerchs et Grossman, 1965 ; Zhao et Kim, 1992 ; Seymour, 1995 ; Hustrulid et Kuchta 2006).


La méthode LG était basée sur une technique mathématique inutilisable dans la pratique jusqu'à ce qu'un programme d'optimisation pratique appelé Whittle Three-D soit développé par Jeff Whittle de Whittle Programming Pty Ltd au milieu des années 1980.


Deux méthodes pour trouver la solution d'optimisation de la fosse à ciel ouvert ont été détaillées par Lerchs et Grossmann, sous forme d'algorithme de théorie graphique,

ce qui est une approche heuristique, et un algorithme de programmation dynamique, qui est une application d'une technique de recherche opérationnelle. Les deux méthodes ont fourni une limite de fosse optimale pour un flux de trésorerie non actualisé, basée sur un modèle de blocs économiques d'un corps de minerai et de ses stériles environnants, et ont déterminé quels blocs devaient être extraits pour extraire la valeur maximale en dollars de la fosse.


Les méthodes de LG ont pris en compte deux types d'informations :

  • i) Les pentes minières requises. Pour chaque bloc du modèle, la méthode LG a besoin de détails sur les autres blocs qui doivent être éliminés pour le découvrir. Ces informations sont stockées sous forme d'« arcs » entre les blocs ( « nœuds » ).
  • (ii) La valeur en dollars de chaque bloc une fois qu'il a été découvert. Dans le cas d'un bloc de stériles, ce sera négatif et correspondra au coût du dynamitage et du transport. Dans le cas d'un bloc de minerai, le coût d'enlèvement sera compensé par la valeur du minerai récupéré, déduction faite des coûts de traitement, des ventes et autres coûts associés. Tout bloc qui peut, au cours de l'exploitation minière, être séparé en stériles et en minerai reçoit une valeur qui reflète cela.


Compte tenu des valeurs des blocs (positifs et négatifs) et des arcs de structure, la méthode LG construit progressivement une liste de blocs liés sous la forme de branches d'un arbre (appelé « graphique » en mathématiques). Les branches sont marquées comme « fortes » si le total de leurs valeurs de blocs est positif. Ces branches valent la peine d'être exploitées si elles sont découvertes. D'autres branches avec des valeurs totales négatives sont signalées comme « faibles ».


La méthode LG recherche ensuite des arcs de structure, qui indiquent qu'une partie d'une branche forte se trouve en dessous d'une branche faible. Lorsqu'un tel cas est constaté, les deux branches sont restructurées de manière à éliminer le conflit. Cela peut impliquer de combiner les deux branches en une seule (qui peut être forte ou faible) ou de séparer une « rameau » d'une branche et de l'ajouter à l'autre branche.


La vérification se poursuit jusqu'à ce qu'il n'y ait plus d'arc de structure passant d'une branche forte à une branche faible. À ce stade, les blocs de toutes les branches fortes constituent et définissent la fosse optimale. Les blocs dans les branches faibles sont ceux qui resteront à la fin de l'exploitation minière.


En effet, l'algorithme de LG a trouvé la fermeture maximale d'un graphique orienté pondéré ; dans ce cas, les sommets représentent les blocs du modèle, les poids représentent le bénéfice net du bloc et les arcs représentent les contraintes minières (généralement de pentes). En tant que tel, l'algorithme de LG fournit une solution mathématiquement optimale au problème de la maximisation de la valeur de la fosse (il est important de noter que cela s'applique à une valeur de flux de trésorerie non actualisée).


Il est à noter qu'il s'agit d'une solution mathématique. À l'exception des informations fournies par les arcs, l'algorithme de LG ne « sait » rien des positions des blocs, ni même de l'exploitation minière. L'algorithme de LG ne fonctionne qu'avec une liste de sommets et une liste d'arcs. Que ceux-ci soient disposés en une, deux ou trois dimensions et que le nombre d'arcs par bloc utilisés n'a pas d'importance pour la logique de la méthode, qui est purement mathématique.


Il est également à noter qu'il a fallu environ 20 ans entre la publication de la méthode LG (1965, également l'année où la méthode du cône flottant a été informatisée) et la première adoption commerciale disponible de la méthode LG (Three-D de Whittle).


L'algorithme de base de LG est désormais utilisé depuis plus de 30 ans sur de nombreuses études de faisabilité et pour de nombreuses mines en production.



2.4 Solutions de flux de réseau


« Dans leur document de 1965, Lerchs et Grossmann ont indiqué que le problème de la fosse ultime pouvait être exprimé sous la forme d'un problème de fermeture maximale dans un réseau de flux, mais ont recommandé leur approche directe, éventuellement en raison de contraintes liées à la mémoire des ordinateurs à l'époque. L'algorithme de LG était donc une méthode permettant de résoudre un cas particulier de problème de flux de réseau » (Deutsch, et al, 2015).


En 1976, Picard « a fourni une preuve mathématique qu'un problème de flux dans un réseau à « fermeture maximale » (dont le problème d'optimisation de fosse à ciel ouvert est un exemple) était réductible à un problème de flux de réseau à « coupure minimale », et donc résolvable par n'importe quel algorithme efficace de flux maximal. En conséquence, des algorithmes sophistiqués de flux de réseau pourraient donc être utilisés à la place de l'algorithme LG, et ils peuvent calculer des résultats identiques en une fraction du temps » (Deutsch, et al, 2015).


L'un des premiers algorithmes de flux maximal efficaces utilisés pour résoudre le problème d'optimisation de la fosse à ciel ouvert a été l'algorithme « push-relabel » (Goldberg et Tarjan, 1988 ; King et al., 1992 ; Goldfarb et Chen, 1997).


L'étude de Hochbaum et Chen (2000) a montré que l'algorithme push-relabel était plus performant que l'algorithme LG dans presque tous les cas. Lorsque le nombre de sommets est élevé, supérieur à un million, les algorithmes de flux de réseau effectuent des ordres de grandeur plus rapidement et calculent exactement les mêmes résultats » (Deutsch, et al, 2015).


De nombreux auteurs ont mis en œuvre l'algorithme de relabel push et diverses heuristiques et techniques ont été développées pour maximiser ses performances. Il s'agit de l'algorithme que MineMax a mis en œuvre dans sa première offre logicielle d'optimisation de fosse.


Le développement d'algorithmes de flux de réseau plus efficaces s'est poursuivi. L'algorithme actuellement disponible le plus efficace et généralement accepté est les divers algorithmes de pseudoflow développés par le professeur Dorit Hochbaumn et ses collègues de l'Université de Californie, à Berkeley (Hochbaum, 2002, 2001 ; Hochbaum et Chen, 2000).


Les méthodes pseudoflow donnent une nouvelle vie à l'optimisation de la fosse LG. La mise en œuvre de la méthode du « plus haut label » de l'algorithme pseudoflow, en particulier, est systématiquement plus rapide que les méthodes LG génériques et est également généralement plus rapide que la mise en œuvre de la méthode du « plus bas label » de l'algorithme pseudoflow. L'augmentation de la vitesse peut être de deux à cinquante fois plus rapide que les méthodes LG, et théoriquement beaucoup plus rapide pour les problèmes plus grands (Muir, 2005).

3. Comparaisons de performances d'algorithmes

Muir (2005) a fourni l'analyse la plus complète des performances de l'algorithme pseudoflow et un exemple pratique des résultats identiques obtenus par rapport à l'algorithme LG pour résoudre une optimisation de fosse. Ces analyses et résultats ont été présentés à l'industrie minière traditionnelle dans la publication de 2005 de la série AusIMM Spectrum : modélisation des corps minéraux et planification stratégique des mines. Les principaux résultats de l'analyse de Muir sont reproduits ici.


Il est à noter que le code écrit par Muir (2005) est le moteur de calcul sous-jacent qui a été mis en œuvre dans Deswik Pseudoflow.


Afin de vérifier la mise en œuvre correcte de ce code, les résultats de la mise en œuvre de Deswik ont été comparés à ceux de quatre ensembles de données de test disponibles au public provenant de Minelib1 (Espinoza et al, 2012). Les ensembles de données spécifiques par rapport auxquels les résultats ont été vérifiés étaient pour Marvin, McLaughlin, KD et P4HD. Les résultats de Pseudoflow étaient identiques aux résultats publiés par Minelib.


Le tableau 1 (tiré de Muir, 2005) montre les temps d'exécution relatifs de plusieurs variantes des algorithmes LG et pseudoflow. Il ressort de ces résultats que la mise en œuvre de la « file de priorité du pseudoflow selon la méthode du plus haut label » (HLPQ) a pris un peu moins de 2 % du temps qu'il a fallu à l'algorithme standard de LG pour résoudre un problème d'optimisation de 38 fosses.


Le tableau 2 (tiré de Muir, 2005) montre que le nombre de blocs et la valeur de profit pour la solution HLPQ étaient identiques à la solution LG du même problème d'optimisation de 38 fosses à gradins.


Les temps de résolution relatifs indiqués dans le tableau 1 sont présentés sous forme de tracés dans la figure 1.


Outre la publication de Muir, il existe quelques autres exemples connus de comparaisons publiées entre l'algorithme de LG et les solutions de réseau de flux au problème d'optimisation de la fosse.


Jiang (2015) a déclaré que les limites finales de la fosse résultant de l'utilisation d'une mise en œuvre d'un algorithme pseudoflow par rapport à la mise en œuvre de Whittle LG ont toujours été sensiblement les mêmes, les différences mineures observées étant toujours dues à la façon dont les diverses mises en œuvre calculent les contraintes d'angle de pente.


L'algorithme push-relabel mis en œuvre par MineMax a été comparé à l'algorithme LG de SRK (Kentwell, 2002) et il a été constaté qu'il produisait « les mêmes résultats pour les calculs réels de la fosse optimale » (à moins de 0,01 % , les différences semblant être dues à la granularité des blocs et à leurs pentes).

Table Graphic
Tableau 1 : temps d'optimisation (en secondes) à divers niveaux de fosse pour la matrice de profit de 220 x 119 x 38
Table Graphic
Tableau 2 - Statistiques pour le niveau 38 pour la matrice de profit de 220 x 119 x 38
PseudoflowExplained_Figure1
Figure 1 - Temps de résolution pour quatre algorithmes d'optimisation de fosse pour des problèmes de fosse comportant un nombre de gradins différent

4. Problèmes de modélisation à noter

Ayant montré qu'il a été prouvé que l'algorithme pseudoflow donnera des résultats identiques à l'algorithme LG, il est également nécessaire de souligner qu'aucune solution algorithmique ne fournira la « vraie » solution d'optimisation exacte. La solution algorithmique au problème d'optimisation de la fosse comporte un grand nombre d'approximations intégrées, ainsi qu'un certain nombre d'erreurs communes et d'hypothèses incertaines utilisées dans le processus.


Les énormes efforts consacrés au développement d'algorithmes d'optimisation sophistiqués ne s'acccompagnent généralement pas par une attention similaire portée à l'amélioration de l'exactitude et de la fiabilité des données utilisées dans l'exercice de modélisation, ainsi que par l'utilisation correcte des résultats de la modélisation.


Certaines des nombreuses sources d'erreurs, d'incertitudes et d'approximations dans le processus d'optimisation de la fosse qui doivent être reconnues sont discutées ci-dessous.


En résumé, sachez que le processus d'optimisation de la fosse est basé sur des paramètres d'entrée estimés à grande échelle et incertains. Deswik recommande donc à l'utilisateur de se concentrer sur une vue d'ensemble et d'obtenir des estimations aussi précises que possible des éléments les plus coûteux. Et n'oubliez pas : « ne vous inquiétez pas des petits détails ».


Deswik recommande également de concevoir des plans pour minimiser les effets négatifs potentiels de vos hypothèses, conformément aux stratégies de scénarios préconisées par Hall (2014) et Whittle (2009), mais également de vérifier le scénario optimiste pour déterminer les limites de l'infrastructure.



4.1 « Erreurs » d'approximation de la solution


a) L'effet de l'utilisation de blocs à côtés verticaux pour représenter une solution (une conception de fosse) qui a des côtés non verticaux. Il est possible de produire une enveloppe lissée à travers les centroïdes des blocs, mais notez que cela ne donnera pas le même résultat en termes de tonnes et de teneur que l'optimisation basée sur les blocs lorsque la surface est découpée contre les blocs du modèle de ressources.


b) Représentation de la précision des pentes. La précision de la pente globale créée dans le processus de modélisation par rapport à la pente à modéliser dépendra de la hauteur et du nombre de dépendances (arcs) utilisées pour définir la pente. Il faudra toujours en vérifier l'adéquation. Les blocs plus grands donneront généralement une précision de pente moindre, et les blocs plus petits permettant une plus grande précision nécessiteront plus d'arcs modélisés (précédences de blocs) et ralentiront le traitement. Une tolérance de précision d'environ 1° d'erreur moyenne est généralement considérée comme acceptable.


c) Modifications dans la conversion d'une enveloppe en une conception de fosse. Une différence de 5 % en tonnes est assez fréquente au cours de ce processus. Cela est dû à l'approximation de la pente globale par rapport à la conception réelle et aux effets du placement des routes de transport sur cette pente globale.


(d) Effet de la largeur minimale d'exploitation minière sur le fond d'une enveloppe. De nombreuses optimisations de fosses sont entreprises sans tenir compte de la largeur minimale d'exploitation au fond de chaque enveloppe, même lorsque le package logiciel utilisé offre une telle capacité. Cela modifiera la valeur de l'enveloppe sélectionnée utilisée pour la conception. À l'heure actuelle, la mise en œuvre de Pseudoflow par Deswik ne dispose pas d'outil permettant de tenir compte de la largeur minimale d'exploitation minière, mais cela figure dans les futurs plans de développement.


e) Effet du stockage. Les algorithmes d'optimisation de la fosse - Whittle LG et Deswik Pseudoflow supposent que la valeur générée est la valeur au moment de l'exploitation minière et que le stockage retarde la récupération de cette valeur. Le stockage pendant 10 ans ou plus signifie que la valeur temporelle du bloc de minerai stocké peut être une fraction de la valeur utilisée dans l'optimisation de la fosse. Les mines avec des quantités importantes de minerai stocké marginalement subiront un effet de surdimensionnement important en raison de la différence entre le moment où l'algorithme évalue le bloc et le moment où la valeur est effectivement générée.


Si une politique de teneur de coupure élevée est utilisée dans la planification de la fosse au début de la vie de la fosse, afin de maximiser la valeur actuelle nette (NPV Lane, 1988), le tonnage stocké augmentera et les différences de valeur liées au temps entre le moment où l'optimisation de la fosse attribue la valeur et le moment où la valeur est effectivement réalisée dans le plan augmentent encore.



4.2 Erreurs et problèmes courants concernant les intrants/extrants


(a) Erreurs dans la régularisation du modèle de blocs et la plus petite unité minière (SMU) supposée. Si un modèle de blocs utilisé comporte des blocs de teneur estimée à des tailles inférieures à la taille de la SMU, une sélectivité minière irréaliste sera intégrée dans le résultat. Si un modèle est régularisé à une taille supérieure à celle de la SMU à des fins de vitesse de traitement, les classifications minerai/stériles définies à l'échelle de la SMU doivent être maintenues et ne pas être lissées vers une taille de blocs régularisés plus grande. Ne pas tenir compte de la sursélectivité peut facilement entraîner des fosses avec une valeur prévue double de celle d'une fosse sélectionnée à partir d'un modèle de blocs avec une SMU de taille appropriée.


(b) Utilisation d'enveloppes dont le facteur de revenu (RF) est 1 pour la conception finale de la fosse. Les limites de la fosse qui maximisent les flux de trésorerie non actualisés pour un projet donné ne maximiseront pas la valeur actuelle nette du projet.


Comme l'a expliqué Whittle (2009), lorsque la valeur temporelle de l'argent est prise en compte, il peut être démontré que les enveloppes externes de la fosse de RF = 1 réduisent la valeur, car le coût du déblayage des stériles est engagé avant de percevoir les marges provenant du minerai finalement obtenu. L'effet des flux de trésorerie actualisés signifie que les coûts actualisés l'emportent sur les revenus plus fortement actualisés. La fosse optimale du point de vue de la valeur actuelle nette (NPV) peut se situer entre 0,65 et 0,95, en fonction de la structure du gisement, des contraintes minières (largeur minimale d'exploitation minière, avancement vertical maximal par an et limite du déplacement total) et de la capacité de traitement. Cela peut être constaté lorsque le pic du flux de trésorerie actualisé du cas spécifié est à un tonnage global inférieur au pic de la courbe de trésorerie totale non actualisée.


Bien que cet aspect soit bien discuté dans la littérature technique, la sélection de l'enveloppe de RF=1 est toujours courante dans l'industrie pour les travaux sur les réserves de minerai et les études de faisabilité des projets.


En outre, la courbe de la valeur de trésorerie actualisée par rapport au tonnage a tendance à être plate en haut. Par exemple, le dernier tiers de la durée de vie de la mine est assez marginal. S'il est intéressant de maintenir l'option d'exploitation pendant cette période et dans cette partie du gisement au cas où les prix, les coûts ou la technologie s'amélioreraient, cette partie de la ressource ne doit pas être considérée comme une partie essentielle et un facteur moteur d'un projet (Whittle 2009).


c) Paramètres de performance de l'usine de traitement. Outre le prix, l'autre facteur majeur comportant une incertitude importante et utilisé dans le calcul des revenus reçus pour un bloc de minerai est la récupération dans l'usine de traitement. Des variations de la récupération pour la teneur, la minéralogie et la dureté sont à prévoir par rapport à la récupération utilisée dans le modèle. La récupération constante couramment utilisée sera presque toujours incorrecte (soit parce qu'elle est surestimée de manière optimiste, soit parce qu'une composante fixe de la queue n'est pas prise en compte).


En outre, il convient également de noter que la valeur du projet peut souvent être augmentée en sacrifiant la récupération de métaux pour rechercher un rendement plus élevé et un coût plus faible, comme l'a expliqué Wooller (1999).


d) Teneur de coupure. Si les blocs avec des valeurs extrêmement petites (quelques centimes par tonne de valeur positive) sont laissés dans le modèle de blocs utilisé (l'utilisation effective d'une valeur de coupure marginale de zéro), une grande quantité de minerai sera traitée dans le projet pour une valeur très faible. En fait, un pourcentage important du minerai est extrait et traité pour guère plus que de l'entraînement, comme l'a vu dans Poniewierski (2016).


Deswik suggère que, afin d'éviter cette situation, une valeur de coupure supérieure à zéro soit appliquée. Il est suggéré qu'une valeur appropriée serait la marge minimale en pourcentage souhaitée sur les coûts de traitement et de vente utilisés. La valeur de revenu de ces blocs serait fixée à zéro, ce qui les empêche d'influencer la sélection optimale des enveloppes. Une fois l'enveloppe finale sélectionnée et la fosse ultime conçue, le matériau marginal de cette fosse peut être réexaminé pour être inclus dans les réserves de minerai et le stockage, si on le souhaite.


Il convient également de noter que pour maximiser la valeur actuelle nette (NPV), une politique de teneur de coupure ou de valeur de coupure variable doit être adoptée (Lane 1988).



4.3 Incertitudes liées aux intrants


a) Incertitude géologique. Il s'agit de l'une des plus grandes sources d'erreur dans l'optimisation d'une fosse, car les résultats de celle-ci dépendent en fin de compte de la précision du modèle et de la compétence du géologue interprétant toutes les données géologiques disponibles. Le modèle de blocs a été créé à partir de données imparfaites éparses qui servent à générer des hypothèses et des estimations sur les limites de minéralisation, la modélisation des teneurs de minéralisation, l'interprétation des failles et l'interprétation de la lithologie.


Selon l'expérience de l'auteur, de nombreux modèles de ressources contenaient des erreurs de métal d'au moins 10 % ou plus (surestimation du modèle) et jusqu'à 30 % ont été observés. Des cas de sous-estimation se produisent également et prédomineront dans la littérature, car personne n'aime discuter publiquement des mauvais résultats. Selon l'expérience des auteurs, 70 à 80 % de tous les modèles de ressources souffrent de surestimations dans une certaine mesure.


b) Outre l'incertitude concernant la teneur, il y a également une incertitude au sujet de la densité et une incertitude liée à l'humidité in situ.

Effet des ressources présumées. Faut-il les inclure ou ne les inclure pas ? Si elles sont incluses, elles peuvent facilement contenir une erreur de 50 % ou plus. Si elles ne sont pas incluses, la conception changera lorsque celle-ci sera convertie en état indiqué ou mesuré.


c) Incertitude géotechnique. Bien qu'il faille s'attacher à s'assurer que les angles globaux souhaités sont modélisés avec précision, les pentes fournies peuvent dans de nombreux cas peuvent être à peine supérieures à une estimation d'un ingénieur géotechnique basée sur très peu de données sur la qualité de la masse des roches, une connaissance éparse et imparfaite des failles, des diaclases, des strates et de l'hydrologie. Même dans les fosses d'exploitation, les conditions géotechniques peuvent changer rapidement par rapport à celles actuellement utilisées.


d) La dilution et la perte sont presque toujours des « conjectures », sauf pour les sites ayant un certain nombre d'années d'expérience d'exploitation et un bon système de rapprochement permettant d'évaluer la dilution et la perte (ce qui n'est pas si courant).


e) Incertitude économique. C'est également l'une des sources majeures d'erreur avec l'optimisation des fosses. Lors de l'analyse des coûts et des revenus, nous devons formuler des hypothèses concernant l'environnement macro-économique, tel que les prix des produits de base, les taux de change, les taux d'intérêt, l'inflation, les coûts de combustible et de l'énergie, les coûts d'investissement de maintien, les coûts des entrepreneurs et les coûts de main-d'œuvre. En ce qui concerne le prix des produits de base en particulier, nous pouvons affirmer en toute confiance que le prix utilisé sera correct à 100 % pour la durée de vie de la mine (il ne sera jamais une valeur statique).


f) Coûts. Sauf dans les mines en exploitation avec une bonne compréhension de l'historique détaillé des facteurs de coût, il y a généralement une grande incertitude quant aux coûts utilisés dans l'optimisation de la fosse. De nombreux paramètres utilisés pour estimer les coûts, tels que la sélection des équipements, le taux de production annuel, la capacité et les exigences de l'installation, etc. ne sont que des estimations. Il y a généralement une compréhension imparfaite des coûts fixes et variables qui ne reflètent pas vraiment les variations des coûts à mesure que les fosses évaluées changent de taille.


En outre, il est à noter que les coûts fixes (ou les coûts périodiques) doivent être appliqués en fonction du goulot d'étranglement de la mine/du broyeur. En règle générale, il s'agit souvent du broyeur semi-autogène (la puissance plutôt que le tonnage étant la limite).

5. Résumé

Les algorithmes de Lerchs-Grossmann et de pseudoflow sont des variations d'algorithmes de flux de réseau qui permettent d'obtenir le même résultat. Pseudoflow est toutefois un algorithme plus efficace sur le plan informatique, développé environ 35 ans après l'algorithme original de Lerchs-Grossman (1965), et est disponible depuis environ 15 ans, la première mise en œuvre pour l'exploitation minière ayant été discutée en 2005 (Muir, 2005).


Si des différences sont constatées entre un résultat de Whittle LG et un résultat de Deswik Pseudoflow, il y aura une différence dans la configuration utilisée. De nombreux facteurs et paramètres de configuration peuvent entraîner des différences dans les résultats de l'optimisation de la fosse, et l'utilisateur doit en être conscient pour éviter de tomber dans les pièges d'erreur courants.


Il est à noter que la mise en œuvre de Deswik n'est pas contrainte (ni facilitée) par les entrées du modèle prédéfini fournies dans le logiciel Whittle pour le calcul des coûts et des revenus (ces modèles peuvent être restrictifs pour des configurations très simples ou des configurations complexes non prises en compte).


Pour la mise en œuvre de Pseudoflow de Deswik, l'utilisateur est tenu de calculer les revenus et les coûts de chaque bloc dans le modèle de blocs utilisé, et est tenu de procéder à sa propre régularisation des blocs dans l'environnement Deswik.CAD.


L'utilisateur contrôle donc entièrement la façon dont les coûts et les revenus sont calculés et affectés, mais il doit être parfaitement familier avec son modèle de blocs, les structures de coûts et les paramètres de revenus (ce qui, selon nous, est une « bonne chose » ). Cela permet aux calculs des coûts et des revenus d'être aussi simples ou complexes que l'utilisateur l'a requis (sans être limité par les boîtes de dialogue de configuration du modèle).


Références

Alford C G et Whittle J, 1986. Application of Lerchs–Grossmann pit optimization to the design of open pit mines, In Large Open Pit Mining Conference, AusIMM–IE Aust Newman Combined Group, 1986, 201–207.


Carlson, T R; Erickson, J D, O’Brain D T and Pana, M T, 1966. Computer techniques in mine planning, Mining Engineering, Vol. 18, No. 5, p.p. 53-56.


Chandran, B G and Hochbaum, D S, 2009. A computational study of the pseudoflow and push-relabel algorithms for the maximum flow problem, Operations Research, 57(2): 358-376.


Deutsch, M., González, E. & Williams, M. 2015. Using simulation to quantify uncertainty in ultimate-pit limits and inform infrastructure placement, Mining Engineering, 67 (12), p.49-55.


Dagdelen, K, 2005. Open pit optimization — strategies for improving economics of mining projects through mine planning, in Orebody Modelling and Strategic Mine Planning, Spectrum Series No 14, pp 125-128 (The Australasian Institute of Mining and Metallurgy: Melbourne).


Espinoza, D, Goycoolea, M, Moreno, E and Newman, A N, 2012.

MineLib: A Library of Open Pit Mining Problems, Ann. Oper. Res. 206(1), 91-114.


Francois-Bongarcon, D M and Guibal, D, 1984. Parameterization of optimal design of an open pit -beginning of a new phase of research, Transactions of Society of Mining Engineers, AIME, Vol. 274, pp. 1801-1805


Goldberg, A and Tarjan, R E, 1988. A new approach to the maximum flow problem, Journal of the Association for Computing Machinery, 35, 921-940.


Goldfarb, D and Chen, W, 1997. On strongly polynomial dual algorithms for the maximum flow problem, Special Issue of Mathematical Programming B, 78(2):159-168.


Hall, B, 2014. Cut-off Grades and Optimising the Strategic Mine Plan, Spectrum Series 20, 311 p (The Australasian Institute of Mining and Metallurgy: Melbourne).


Hochbaum, D S, 2008. A pseudoflow algorithm: a new algorithm for the maximum-flow problem, Operations Research, 56(4): 992-1009.


Hochbaum, D S and Chen, A, 2000. Performance analysis and best implementations of old and new algorithms for the open-pit mining problem, Operations Research, 48(6): 894-914.


Hochbaum, D S, 2001. A new-old algorithm for minimum-cut and maximum-flow in closure graphs, Networks, 37(4): 171-193.


Jiang, Y, D. 2015, “Impact of Reblocking on Pit Optimization” https://www.linkedin.com/pulse/effect-reblocking-pit-optimization-yaohong-d-jiang


Kentwell, D, 2002. MineMax Planner vs Whittle Four-X - an open pit optimization software evaluation and comparison, MineMax Whitepaper available from https://www.minemax.com/downloads/Minemax-Planner-vs-FourX.pdf


Kim, Y C, 1978. Ultimate pit design methodologies using computer models the state of the art, Mining Engineering, Vol. 30, pp. 1454 1459.


King, V, Rao, S and Tarjan, R, 1992. A faster deterministic maximum flow algorithm, Proceedings of the Third Annual ACM-SIAM Symposium on Discrete Algorithms. Academic Press, Orlando, FL, USA, 157-164.


Lane, K F, 1988. The Economic Definition of Ore: Cut-off Grades in Theory and Practice (Mining Journal Books: London).


Lerchs, H and Grossmann, I F, 1965. Optimum design of open pit mines, The Canadian Mining and Metallurgical Bulletin, Vol. 58, January, pp.47-54.


McCarthy, P L, 1993. “Pit Optimization” internal paper for AMC and whitepaper on the AMC website, available at http://www.amcconsultants.com.au/library


Muir, D C W, 2005. Pseudoflow, new life for Lerchs-Grossmann pit optimization, in Orebody Modelling and Strategic Mine Planning, Spectrum Series No 14, pp 97-104 (The Australasian Institute of Mining and Metallurgy: Melbourne).


Pana, M, 1965. The simulation approach to open-pit design, In  J. Dotson and W. Peters, editors, Short Course and Symposium on Computers and Computer Applications in Mining and Exploration, College of Mines, University of Arizona, Tuscon, Arizona. pp. ZZ–1 – ZZ–24.


Picard, J, 1976. Maximal closure of a graph and applications to combinatorial problems, Management Science, Vol. 22, No. 11, pp. 1268–1272.


Poniewierski, J, 2016, Negatively geared ore reserves – a major peril of the break-even cut-off grade, Proc. AusIMM Project Evaluation Conference, Adelaide, 8-9 March 2016. pp236-247.


Whittle, G, 2009. Misguided objectives that destroy value, in Proceedings Orebody Modelling and Strategic Mine Planning, pp 97-101 (The Australasian Institute of Mining and Metallurgy: Melbourne).


Wooller, R, 1999. Cut-off grades beyond the mine – optimising mill throughput, in Proceedings Third Biennial Conference on Strategic Mine Planning. pp 217-230 (Whittle Programming: Melbourne).