Search

Search Results

Dataverse de Polytechnique Montréal Logo
Bernard-Garcia, Mayari; Mahdi, Tew-Fik 2019-03-07 Assembled from 196 references, this database records a total of 3,861 cases of historical dam failures around the world and represents the largest compilation of dam failures recorded to date (17-02-2020). Indeed, in this database is recorded historical dam failure regardless of the type of dams (e.g. man-made dam, tailing dam, temporary dam, natural dam, etc.), either the type of structure (e.g. concrete dam, embankment dam, etc.), the type of failure (e.g. pipping failure, overtopping failure, etc.) or the properties of the dams (e.g. dam height, reservoir capacity, etc.). Through this process, a total of 45 variables (i.e. which composed the “dataset”, obtained) have been used (when possible/available and relevant) to record various information about the failure (e.g. dam descriptions, dam properties, breach dimensions, etc.). Coupled with the Excel’s functionalities (e.g. adapted from Excel 2016; customizable screen visualization, individual search of specific cases, data filter, pivot table, etc.), the database file can easily be adapted to the needs of the user (i.e. research field, dam type, dam failure type, etc.) and is considered as a door opening in various fields of research (e.g. such as hydrology, hydraulics and dam safety). Also, notice that the dataset proposed allows any user to optimize the verification process, to identify duplicates and to put back in context the historical dam failures recorded. Overall, this investigation work has aimed to standardize data collection of historical dam failures and to facilitate the international collection by setting guidelines. Indeed, the sharing method (i.e. provided through this link) not only represents a considerable asset for a wide audience (e.g. researchers, dams’ owner, etc.) but, furthermore, allows paving the way for the field of dam safety in the actual era of "Big Data". Updated versions will be deposited (at this DOI) at undetermined frequencies in order to update the data recorded over the years. <br> <br> Cette base de données, compile un total de 3 861 cas de rupture de barrages à travers le monde, soit la plus large compilation de ruptures historiques de barrages actuellement disponible dans la littérature (17-02-2020), et a été obtenue suite à la revue de 196 références. Pour ce faire, les cas de ruptures de barrages historiques recensés ont été enregistrés dans le fichier XLSX fourni, et ce, indépendamment du domaine d’application (ex. barrage construit par l’Homme, barrage à rétention minier, barrage temporaire, barrage naturel, etc.), du type d’ouvrage (ex. barrage en béton, barrage en remblai, etc.), du mode de rupture (ex. rupture par effet de Renard, rupture par submersion, etc.) et des propriétés des ouvrages (ex. hauteur du barrage, capacité du réservoir, etc.). Au fil du processus de compilation, un jeu de 45 variables a été obtenu afin d’enregistrer les informations (lorsque possible/disponible et pertinente) décrivant les données recensées dans la littérature (ex. descriptions du barrage, propriétés du barrage, dimensions de la brèche de rupture, etc.). De ce fait, le travail d’investigation et de compilation, ayant permis d’uniformiser et de standardiser cette collecte de données de différents types de barrages, a ainsi permis de fournir des balises facilitant la collecte de données à l’échelle internationale. Soulignons qu’en couplant la base de données aux fonctionnalités d'Excel (ex. pour Excel 2016: visualisation d'écran personnalisable, recherche individuelle de cas spécifiques, filtre de données, tableau croisé dynamique, etc.), le fichier peut également aisément être adapter aux besoins de son utilisateur (ex. domaine d’étude, type de barrage, type de rupture de barrage, etc.), ouvrant ainsi la porte à de nouvelles études dans divers domaines de recherche (ex. domaine de l’hydrologie, l’hydraulique et de la sécurité des barrages), grâce aux données nouvellement compilées. De ce fait, cette méthode de partage, mise gratuitement à la disposition de la communauté internationale par l’entremise de cette page web, représente donc non seulement un atout considérable pour un large public (ex. chercheurs, propriétaires de barrages, etc.), mais permet au domaine de la sécurité des barrages d’entrer dans l'actuelle ère du « Big Data ». Des versions mises à jour seront par le fait même déposées (via ce DOI) à des fréquences indéterminées afin de mettre à jour les données enregistrées au fil des ans. Begun in August 2018 (i.e. at the beginning of the data creator’s PhD), this intensive and extensive work of dam failure’s investigation, compilation, verification and uniformization have led (in January 2019) to this database file (V1) and have been submitted for publication in March 2019. In order to demonstrate the credibility of the database access provided through the related publication, the XLSX file has here been published (CC0 license), in February 2020, but without its related publications (which still “relevant” to anyone who wishes to fully “enjoy” the data record and/or to corroborate its content and/or perpetuate this fastidious work). Notice that the XLSX file has, however, been constructed in order to facilitate its utilization (i.e. with or without its related publication). Also, notice that in regard to the magnitude of the task, it is possible that duplicates and/or missing data are still remaining. Therefore, the authors encouraged readers to share their suggestions, remarks and/or questions. If inconsistencies and/or more failures are observed by the user, a list (i.e. set of data) can be sent to the authors in order to transmit constructive observations, corrections, uncertainties and/or questions (i.e. referring to the “ID” of the case studies involved).<br> <br> Initié en Août 2018 (c.-à-d. au début du projet doctoral dans lequel il s’imbrique) ce travail d'investigation, de compilation, de vérification et d'uniformisation a mené à la création de cette base de données (V1) en Janvier 2019. Cette dernière a quant à elle été soumise pour une première tentative de publication en Mars 2019. Afin de démontrer la crédibilité et la portée de l’accès proposé durant le processus de publication, un accès à cette base de données a ici été rendu disponible (licence CC0), en Février 2020, sans la série de publications connexes (qui s’avère néanmoins particulièrement pertinente et essentiel pour quiconque souhaite « profiter » pleinement de l'enregistrement de données, corroborer son contenu et/ou perpétuer le travail réalisé). Notez que le fichier XLSX a malgré tout été construit afin de faciliter son utilisation (c.-à-d. avec ou sans sa série de publications connexes). Enfin, malgré le souci rigoureux considéré tout au long du processus de collecte afin d’« assurer » la qualité, la traçabilité et la fiabilité des données enregistrées, en regard à l'ampleur de la tâche, il importe de souligner qu’il est possible que des doublons et/ou des données manquantes soient mis en évidence par les utilisateurs. Ainsi, si des incohérences ou nouvelles données sont identifiées par un utilisateur, celui-ci est invité à transmettre ses données, observations, corrections, incertitudes et/ou questions aux auteur(e)s (ex. via courriel). Dans le même ordre d’idées, les auteur(e)s encouragent donc les utilisateurs à partager toutes suggestions, remarques et/ou questions constructives (le cas échéant).
Dataverse de Polytechnique Montréal Logo
2020-09-21 <p>Civil and geological engineers have used field variable-head permeability tests (VH tests or slug tests) for over one century to assess the local hydraulic conductivity of tested soils and rocks. The water level in the pipe or riser casing reaches, after some rest time, a static position or elevation, z2. Then, the water level position is changed rapidly, by adding or removing some water volume, or by inserting or removing a solid slug. Afterward, the water level position or elevation z1(t) is recorded vs. time t, yielding a difference in hydraulic head or water column defined as Z(t) = z1(t) - z2. The water level at rest is assumed to be the piezometric level or PL for the tested zone, before drilling a hole and installing test equipment. All equations use Z(t) or Z*(t) = Z(t) / Z(t=0). The water-level response vs. time may be a slow return to equilibrium (overdamped test), or an oscillation back to equilibrium (underdamped test). This document deals exclusively with overdamped tests. Their data may be analyzed using several methods, known to yield different results for the hydraulic conductivity. The methods fit in three groups: group 1 neglects the influence of the solid matrix strain, group 2 is for tests in aquitards with delayed strain caused by consolidation, and group 3 takes into account some elastic and instant solid matrix strain. This document briefly explains what is wrong with certain theories and why. It shows three ways to plot the data, which are the three diagnostic graphs. According to experience with thousands of tests, most test data are biased by an incorrect estimate z2 of the piezometric level at rest. The derivative or velocity plot does not depend upon this assumed piezometric level, but can verify its correctness. The document presents experimental results and explains the three-diagnostic graphs approach, which unifies the theories and, most important, yields a user-independent result. Two free spreadsheet files are provided. The spreadsheet "Lefranc-Test-English-Model" follows the Canadian standards and is used to explain how to treat correctly the test data to reach a user-independent result. The user does not modify this model spreadsheet but can make as many copies as needed, with different names. The user can treat any other data set in a copy, and can also modify any copy if needed. The second Excel spreadsheet contains several sets of data that can be used to practice with the copies of the model spreadsheet.</p> <p>En génie civil et géologique, on a utilisé depuis plus d'un siècle les essais in situ de perméabilité à niveau variable (essais VH ou slug tests), afin d'évaluer la conductivité hydraulique locale des sols et rocs testés. Le niveau d'eau dans le tuyau ou le tubage prend, après une période de repos, une position ou élévation statique, z2. Ensuite, on modifie rapidement la position du niveau d'eau, en ajoutant ou en enlevant rapi-dement un volume d'eau, ou en insérant ou retirant un objet solide. La position ou l'élévation du niveau d'eau, z1(t), est alors notée en fonction du temps, t, ce qui donne une différence de charge hydraulique définie par Z(t) = z1(t) - z2. Le niveau d'eau au repos est supposé être le niveau piézométrique pour la zone testée, avant de forer un trou et d'installer l'équipement pour un essai. Toutes les équations utilisent Z(t) ou Z*(t) = Z(t) / Z(t=0). La réponse du niveau d'eau avec le temps peut être soit un lent retour à l'équilibre (cas suramorti) soit une oscillation amortie retournant à l'équilibre (cas sous-amorti). Ce document ne traite que des cas suramortis. Leurs données peuvent être analysées à l'aide de plusieurs méthodes, connues pour donner des résultats différents pour la conductivité hydraulique. Les méthodes appartiennent à trois groupes : le groupe 1 néglige l'influence de la déformation de la matrice solide, le groupe 2 est pour les essais dans des aquitards avec une déformation différée causée par la consolidation, et le groupe 3 prend en compte une certaine déformation élastique et instantanée de la matrice solide. Ce document explique brièvement ce qui est incorrect dans les théories et pourquoi. Il montre trois façons de tracer les données, qui sont les trois graphiques de diagnostic. Selon l'expérience de milliers d'essais, la plupart des données sont biaisées par un estimé incorrect de z2, le niveau piézométrique supposé. Le graphe de la dérivée ou graphe des vitesses ne dépend pas de la valeur supposée pour le niveau piézomé-trique, mais peut vérifier son exactitude. Le document présente des résultats expérimentaux et explique le diagnostic à trois graphiques, qui unifie les théories et donne un résultat indépendant de l'utilisateur, ce qui est important. Deux fichiers Excel gratuits sont fournis. Le fichier"Lefranc-Test-English-Model" suit les normes canadiennes : il sert à expliquer comment traiter correctement les données d'essai pour avoir un résultat indépendant de l'utilisateur. Celui-ci ne modifie pas ce fichier modèle mais peut en faire autant de copies que nécessaire, avec des noms différents. L'utilisateur peut traiter un autre jeu de données dans une copie, et il peut modifier une copie si c'est nécessaire. Le second fichier Excel contient plusieurs jeux de données, qui peuvent être utilisés pour s'exercer avec les copies du fichier modèle.</p>
Dataverse de Polytechnique Montréal Logo
Goyette, Pierre-Alexandre; Boulais, Étienne; Tremblay, Maude; Gervais, Thomas 2019 <p>Simulations and analysis were performed by Pierre-Alexandre Goyette and Maude Tremblay. The 2D finite element simulation of the PCDs were made using the MATLAB-COMSOL livelink (COMSOL Multiphysics v.5.1, COMSOL AB). Simulations were made by coupling Laplace’s equation (velocity potential) with diffusion. A custom code was made such as stochastic error in the range [-X%, X%] was added to the flow rate of every apertures. The files are categorised in function of the size of the PCD, and the error range used for the simulation. 1000 simulations were made for every condition. The PCD used are either a square array of X by X aperture, or a hexagonal staggered array of 92 aperture, used for the triangle pixel simulations.</p> <p>Les simulations et l’analyse ont été faites par Pierre-Alexandre Goyette et Maude Tremblay. Les simulations par élément finis 2D et ont été faites à l’aide de MATLAB-COMSOL livelink (COMSOL Multiphysics v.5.1, COMSOL AB). Les simulations couplent l’équation de Laplace (potentiel de vélocité) et la diffusion. Un code Matlab a été utilisé afin d’ajouter une erreur stochastique entre les bornes [-X%, X%] pour chacune des ouvertures. Les fichiers sont catégorisés en fonction des bornes (X%) utilisées pour les erreurs stochastiques, et en fonction de la taille des afficheurs pixélisés. 1000 Simulations ont été faites pour chaque condition. Les afficheurs pixélisés dans les simulations sont formés de tableaux de N par N ouvertures, utilisées pour les simulations de pixels carrés, ou un arrangement en quinconce hexagonal de 92 ouvertures, utilisées pour les simulations de pixels triangulaires.</p> <p>This data repository contains all the simulation result used for the article: "Pixel-based open-space microfluidics for versatile surface processing" by Pierre-Alexandre Goyette, Étienne Boulais, Maude Tremblay and Thomas Gervais. This dataset contains the simulation results of pixelated chemical display where stochastic errors are added to the flow rate of the injections and aspirations. The objective is to simulate the behavior of pixelated chemical displays in a real life contexts, where fabrication errors and partial clogging can affect the device.</p> <p>Cet ensemble de données contient les résultats de simulations utilisés dans l’article « Pixel-based open-space microfluidics for versatile surface processing » par Pierre-Alexandre Goyette, Étienne Boulais, Maude Tremblay et Thomas Gervais. Cet ensemble de données contient des simulations d’afficheurs chimiques pixélisés, où des erreurs stochastiques sont ajoutées aux débits de toutes les injections et les aspirations. L’objectif de ces simulations est de simuler le comportement des afficheurs chimique dans un contexte réel, ou des erreurs de fabrication et des obstructions partielles de canaux peuvent survenir et affecter le système.</p>
Dataverse de Polytechnique Montréal Logo
Dorrigiv, Dina; Simeone, Kayla; Communal, Laudine; Kendall-Dupont, Jennifer; St-Georges-Robillard, Amélie; Péant, Benjamin; Carmona, Euridice; Mes-Masson, Anne-Marie; Gervais, Thomas 2021-08-24 This data repository contains the raw experimental results used for the article: "Microdissected Tissue vs Tissue Slices—A Comparative Study of Tumor Explant Models Cultured On-Chip and Off-Chip" by Dina Dorrigiv, Kayla Simeone, Laudine Communal, Jennifer Kendall-Dupont, Amélie St-Georges-Robillard, Benjamin Péant, Euridice Carmona, Anne-Marie Mes-Masson, and Thomas Gervais. This dataset contains the experimental results used to generate figures 2 and 3. <br> <br> Cet ensemble de données contient les résultats expérimentaux bruts utilisés pour l'article : "Microdissected Tissue vs Tissue Slices—A Comparative Study of Tumor Explant Models Cultured On-Chip and Off-Chip" par Dina Dorrigiv, Kayla Simeone, Laudine Communal, Jennifer Kendall-Dupont, Amélie St-Georges-Robillard, Benjamin Péant, Euridice Carmona, Anne-Marie Mes-Masson et Thomas Gervais. Cet ensemble de données contient les résultats expérimentaux utilisés pour générer les figures 2 et 3.
Dataverse de Polytechnique Montréal Logo
Chenaf, Djaouida; Chapuis, Robert 2019-05-09 The equations and the theoretical developments are presented in the article https://doi.org/10.1520/GTJ20170032 and not in the Excel file. (Robert Chapuis' note) Les équations et développements théoriques sont donnés dans l'article https://doi.org/10.1520/GTJ20170032 et pas dans le fichier Excel. (note de l'auteur Robert Chapuis) The readers can copy this file and modify the data to analyze other pumping test data for which a monitoring well (MW) is suspected to be poorly installed, which creates a hydraulic short-circuit along the MW pipe. Les lecteurs peuvent copier ce fichier et modifier les données pour analyser d'autres données d'essais de pompage pour lesquelles un puits de surveillance (MW) est suspecté d'être mal installé, ce qui crée un court-circuit hydraulique le long du tuyau du puits.
Dataverse de Polytechnique Montréal Logo
Myriam Brochu; Simon Laliberté-Riverin; Jonathan Bellemare; Frédéric Sirois 2020-10-01 The dataset contains detailed data associated with each intergranular site analyzed in the article. An interpolation table for elastic-plastic finite element analysis of a notched sample is also presented.<br/> Le jeu de données contient les données détaillées associées à chaque site intergranulaire analysé dans l'article. Une table d'interpolation des résultats de l'analyse par éléments élastique-plastique d'une éprouvette entaillée est aussi présentée.
Dataverse de Polytechnique Montréal Logo
Chapuis, Robert 2020-03-13 Many disciplines (geotechnique, hydraulics, geology, environment, pharmaceutics…) analyze the size distribution of poly-disperse solids. This document explains the principles of a modal decomposition method (MDM) to fit any grain size distribution (GSD) and decompose it into subpopulations of grains or modes. The examples here are in the field of geotechnique. Several researchers have proposed methods to fit GSD data with a theoretical curve. These previous methods were shown to have a coefficient of determination, R2, typically in the 0.5–0.9 range. The proposed MDM has a R2 that usually exceeds 0.999, a marked advantage. For field investigations, soil samples taken in boreholes are remoulded mixtures of thin layers. These samples have lost information on stratification but the MDM can recover this information, as shown in published case studies. The MDM improves the prediction of hydraulic conductivity, K, in stratified soils, which is central for groundwater and pollution studies. Single layers in stratified soils are found to be unimodal, with a single population of grains. Multimodal soils are either homogeneous (till, crushed stone) or stratified (sandy aquifers). Sand samples may have up to four sub-populations or modes in their GSDs. <br/>Free Excel spreadsheets are provided to any person who wants to analyze or decompose a GSD into its subpopulations of grains. The free Excel files are made available through Scholars Portal Dataverse. <br/>An Excel file with a few GSD examples to be treated is also provided.<br/><br/> De nombreuses disciplines (géotechnique, hydraulique, géologie, environnement, pharmacie...) analysent la granulométrie de solides variés. Ce document explique les principes de la méthode de décomposition modale (MDM) pour décrire n'importe quelle distribution de la taille des grains (GSD) et la décomposer en sous-populations de grains, ou modes. Les exemples présentés ici sont du domaine de la géotechnique. Plusieurs chercheurs ont proposé des méthodes permettant d'ajuster les données granulométriques à une courbe théorique. Ces méthodes antérieures, c’est démontré, ont un coefficient de détermination, R2, généralement compris entre 0,5 et 0,9. La MDM proposée a un R2 qui dépasse généralement 0,999, ce qui constitue un avantage significatif. Pour les études in-situ, les échantillons de sol prélevés dans les trous de forage sont des mélanges remaniés de couches minces. Ces échantillons ont perdu des informations sur la stratification, mais la MDM peut récupérer ces informations, comme l’ont montré des études de cas publiées. La MDM améliore la prédiction de la conductivité hydraulique, K, dans les sols stratifiés, ce qui est essentiel pour les études sur les eaux souterraines et la pollution. Les couches simples d’un sol stratifié s'avèrent être unimodales, avec une seule population de grains. Les sols multimodaux sont soit homogènes (till, pierre concassée), soit stratifiés (aquifères sableux). Les échantillons de sable peuvent avoir jusqu'à quatre sous-populations ou modes dans leurs GSD. <br/>Des feuilles de calcul Excel gratuites sont fournies à toute personne qui souhaite analyser ou décomposer une GSD en ses sous-populations de grains. Les fichiers Excel gratuits sont disponibles sur Scholars Portal Dataverse. <br/>Un fichier Excel contenant quelques exemples de données de GSD à traiter est également fourni.

Map search instructions

1.Turn on the map filter by clicking the “Limit by map area” toggle.
2.Move the map to display your area of interest. Holding the shift key and clicking to draw a box allows for zooming in on a specific area. Search results change as the map moves.
3.Access a record by clicking on an item in the search results or by clicking on a location pin and the linked record title.
Note: Clusters are intended to provide a visual preview of data location. Because there is a maximum of 1000 records displayed on the map, they may not be a completely accurate reflection of the total number of search results.