File: C:/Users/Michel/Documents/Dump20230219/bitnami_redmine_wiki_content_versions.sql
CREATE DATABASE IF NOT EXISTS `bitnami_redmine` /*!40100 DEFAULT CHARACTER SET utf8 */;
USE `bitnami_redmine`;
-- MySQL dump 10.13 Distrib 5.7.17, for Win64 (x86_64)
--
-- Host: 127.0.0.1 Database: bitnami_redmine
-- ------------------------------------------------------
-- Server version 5.7.32-log
/*!40101 SET @OLD_CHARACTER_SET_CLIENT=@@CHARACTER_SET_CLIENT */;
/*!40101 SET @OLD_CHARACTER_SET_RESULTS=@@CHARACTER_SET_RESULTS */;
/*!40101 SET @OLD_COLLATION_CONNECTION=@@COLLATION_CONNECTION */;
/*!40101 SET NAMES utf8 */;
/*!40103 SET @OLD_TIME_ZONE=@@TIME_ZONE */;
/*!40103 SET TIME_ZONE='+00:00' */;
/*!40014 SET @OLD_UNIQUE_CHECKS=@@UNIQUE_CHECKS, UNIQUE_CHECKS=0 */;
/*!40014 SET @OLD_FOREIGN_KEY_CHECKS=@@FOREIGN_KEY_CHECKS, FOREIGN_KEY_CHECKS=0 */;
/*!40101 SET @OLD_SQL_MODE=@@SQL_MODE, SQL_MODE='NO_AUTO_VALUE_ON_ZERO' */;
/*!40111 SET @OLD_SQL_NOTES=@@SQL_NOTES, SQL_NOTES=0 */;
--
-- Table structure for table `wiki_content_versions`
--
DROP TABLE IF EXISTS `wiki_content_versions`;
/*!40101 SET @saved_cs_client = @@character_set_client */;
/*!40101 SET character_set_client = utf8 */;
CREATE TABLE `wiki_content_versions` (
`id` int(11) NOT NULL AUTO_INCREMENT,
`wiki_content_id` int(11) NOT NULL,
`page_id` int(11) NOT NULL,
`author_id` int(11) DEFAULT NULL,
`data` longblob,
`compression` varchar(6) DEFAULT '',
`comments` varchar(1024) DEFAULT '',
`updated_on` datetime NOT NULL,
`version` int(11) NOT NULL,
PRIMARY KEY (`id`),
KEY `wiki_content_versions_wcid` (`wiki_content_id`),
KEY `index_wiki_content_versions_on_updated_on` (`updated_on`)
) ENGINE=InnoDB AUTO_INCREMENT=25 DEFAULT CHARSET=utf8;
/*!40101 SET character_set_client = @saved_cs_client */;
--
-- Dumping data for table `wiki_content_versions`
--
LOCK TABLES `wiki_content_versions` WRITE;
/*!40000 ALTER TABLE `wiki_content_versions` DISABLE KEYS */;
INSERT INTO `wiki_content_versions` VALUES (1,1,1,1,'h1. *OpenOpcUa for Sponsors*\r\nh2. v 1.0.2.8\r\nVersion 1.0.2.8 target Windows and Linux. \r\nThe Windows toolchain is supporting only Visual Studio 2013','','','2015-06-03 15:16:39',1),(2,1,1,1,'h1. *OpenOpcUa for Sponsors*\r\nv 1.0.2.8\r\n<pre>\r\nVersion 1.0.2.8 target Windows and Linux. \r\nThe Windows toolchain is supporting only Visual Studio 2013\r\n</pre>','','','2015-06-03 15:44:06',2),(3,2,2,1,'h1. Wiki\r\nQuelques informations utiles\r\nConversion décimale vers IEEE : http://babbage.cs.qc.cuny.edu/IEEE-754.old/Decimal.html','','','2016-10-10 15:40:04',1),(4,2,2,1,'h1. Quelques informations utiles\r\nConversion décimale vers IEEE : http://babbage.cs.qc.cuny.edu/IEEE-754.old/Decimal.html','','','2016-10-10 15:41:07',2),(5,2,2,1,'h1. Quelques informations utiles\r\nh2. Conversion décimale vers IEEE : \r\n http://babbage.cs.qc.cuny.edu/IEEE-754.old/Decimal.html\r\nh2. Conversion Float to hex : \r\n https://gregstoll.dyndns.org/~gregstoll/floattohex/','','','2016-10-30 14:01:29',3),(6,2,2,1,'h1. Quelques informations utiles\r\nh2. Conversion décimale vers IEEE : \r\n http://babbage.cs.qc.cuny.edu/IEEE-754.old/Decimal.html\r\nh2. Conversion Float to hex : \r\n https://gregstoll.dyndns.org/~gregstoll/floattohex/\r\nVpiS7\r\nUne nouvelle version est disponible. Elle prend en charge la lecture des chaines et de DB structurés\r\n','','','2016-11-30 14:07:44',4),(7,3,3,1,'h1. OpenOpcUaWiki\r\nOPC Foundation LDS\r\n\r\n* The Local Discovery Server (LDS) provides the necessary infrastructure to publicly expose the OPC UA Servers available on a given computer.\r\n* When OpenOpcUaCoreServer is configuration to register to the LDS you have to copy its certificate in C:\\ProgramData\\OPC Foundation\\UA\\Discovery\\pki\\trusted\\certs when using the OPC Fondation LDS.\r\n','','','2016-12-23 16:43:53',1),(8,3,3,1,'h1. OpenOpcUaWiki\r\nOPC Foundation LDS\r\n\r\n* The Local Discovery Server (LDS) provides the necessary infrastructure to publicly expose the OPC UA Servers available on a given computer.\r\n* When OpenOpcUaCoreServer is configured to register to the LDS you have to copy its certificate in C:\\ProgramData\\OPC Foundation\\UA\\Discovery\\pki\\trusted\\certs when using the OPC Fondation LDS.\r\n','','','2017-01-12 19:39:45',2),(9,1,1,1,'h1. *OpenOpcUa for Sponsors*\r\nv 1.0.2.8\r\n<pre>\r\nVersion 1.0.2.8 target Windows and Linux. \r\nThe Windows toolchain is supporting only Visual Studio 2013\r\n</pre>\r\nh1. Where are the Debug DLL for CRT VS2013 ?\r\nJust here\r\nC:\\Program Files (x86)\\Microsoft Visual Studio 12.0\\VC\\redist\\Debug_NonRedist\\x86\\Microsoft.VC120.DebugCRT','','','2017-08-24 15:54:42',3),(10,4,4,1,'h1. Wiki\r\nIssue data_seg\r\nhttps://msdn.microsoft.com/en-us/library/h90dkhs0(v=vs.90).aspx\r\n','','','2017-09-01 16:27:41',1),(11,5,5,285,'Les progrès récents du Machine Learning grâce aux Graphical Processing Units (GPU) et aux Réseaux de neurones convolutifs profonds (Deep Learning et Convolutional Neural Networks) ont permis de développer des modèles prédictifs sur la base d’images.\r\nDes concours tels que Image Net, remportés par Google, Microsoft et d’autres géants du numérique ont permis de démontrer la performance de ces algorithmes pour l’analyse d’image (computer vision). Les méthodes mises en place sont performantes pour reconnaître des objets à partir de données supervisées, c’est-à-dire que l’apprentissage se fait à partir de données toujours labellisées. Tous les experts s’accordent à dire que ces avancées en intelligence artificielle sont indéniables depuis que le seuil d’erreur est meilleur que celui des humains soit 5% d’erreur dans la classification d’objets parmi 22,000 catégories. Les sujets d’apprentissage partiellement supervisé voire non-supervisé tels que la détection de la fraude, la détection d’anomalie et la maintenance prédictive sont plus difficiles. \r\nSans parler d’utiliser des images, la maintenance prédictive [respectivement la fraude] sur la base de données structurées « simples » (booléens, entiers ou flottants) est un sujet de recherche d’actualité : 166 [respectivement 195] thèses soutenues en France sur le sujet entre 2012 et 2017. L’analyse de données riches telles que des images, permettra d’aller plus loin dans la recherche et de mettre à profit l’effervescence actuelle sur les sujets d’apprentissage profond et de vision par ordinateur.\r\nAujourd’hui aucun système basé sur l’analyse d’image n’a fait ses preuves sur les sujets d’apprentissage non supervisé. Certains articles de recherche ont déjà été publiés très récemment autour de la détection d’anomalie grâce à l’apprentissage profond et l’analyse d’images, mais aucun n’est appliqué sur des données de process et ils exploitent des bases de données de recherche telles que MNIST, CIFAR-10 ou Image-Net. https://export.arxiv.org/pdf/1704.06743 \r\nTout travail dans ce domaine est aujourd’hui de l’ordre de la recherche à cause des différents verrous techniques et technologiques : \r\n- Capacité de calcul : les calculs multi-GPU nécessaires à l’apprentissage sur des centaines de milliers voire des millions d’images sont coûteux et ne sont maîtrisés que par un petit écosystème d’experts – il suffit de voir le taux de participation aux Kaggle de « computer vision » comparé à ceux d’analyse de données structurées limitées à des nombres et des caractères.\r\n- Difficulté à évaluer les performances des modèles non-supervisés. Même dans le cas de données partiellement labellisées, ces « labels » ne permettront pas de découvrir de nouveaux « patterns » de fraude ou d’anomalies.\r\n- Difficile d’anticiper ce que ces modèles permettront de trouver : le terme de sérendipité est récurrent en apprentissage non-supervisé parce que ces modèles permettent de répondre à des questions inattendues mais pas forcément à celles formulées initialement.\r\nCes recherches sont souvent l’occasion de mesurer la qualité des données disponibles et de définir les pistes d’amélioration (résolution, exposition, échantillonnage, besoin de redondance ie validation par plusieurs sources d’acquisition/points de vue…)\r\n\r\nNous proposons de traiter le sujet de l’application du deep learning à la détection d’anomalies dans les process industriels\r\n','','','2017-09-17 16:05:59',1),(12,6,6,1,'Utilisation de clrinterop\r\nIntroduction\r\nWelcome to the CLR Interop CodePlex site, which is managed by the CLR Interop team. Our goal is to provide tools and samples that enhance your interop development experience. Please feel free to share comments or feedback with us. \r\n\r\nProject Description: P/Invoke Interop Assistant\r\nIn marshalling there are many attributes and rules for dealing with types. Understanding all of these can be a bit daunting. To improve the development experience, the P/Invoke Interop Assistant was created. It is a tool that conveniently converts C/C++ to managed P/Invoke signatures or verse visa. It even comes with a database of Win32 functions, data types, and constants, so the common task of adding a Win32 P/Invoke to your C# or Visual Basic source file is made very easy. There is a great marshalling article on MSDN Magazine website which highlights the tool. We hope you enjoy it!\r\n\r\nProject Description: Type Library Importer in Managed Code \r\nTlbimp is a command line tool which creates a managed, interop assembly from a COM type library. This is essentially the same tool that was released with versions of the .NET Framework SDK, but written entirely in managed code. Providing a managed version will enable developers to explore and extend its features. We also plan on adding new features to make it more customizable. Stay tuned for more enhancements!\r\n\r\nProject Description: IL Stub Diagnostic Tool\r\nIL stubs are dynamically generated on the fly by the CLR and handle the marshalling and invocation of the target method. The IL Stub Diagnostic tool was created to ease the interop debugging experience. It is a real-time monitor which shows the details of every IL stub generated by the CLR in a given process. For each stub, the tool currently displays its IL code as well as the signature of the managed/native methods. This release is supported on Windows Vista+. Further, we plan on releasing enhancements of the tool during the Visual Studio 2010 Beta period. Stay tuned!!\r\n\r\nProject Description: CustomQueryInterface Sample - IDispatch and Aggregation\r\nICustomQueryInterface is a new interface that will be released in CLR v4. This feature will enable developers to provide their own managed implementation of custom and standard COM interfaces (except IUnknown). In this sample, we will show you how to construct a managed COM aggregation system in the context of a managed implementation of IDispatch with ICustomQueryInterface.\r\n\r\nProject Description: CustomQueryInterface Sample - IMarshal on WCF\r\nICustomQueryInterface is a new interface that will be released in CLR v4 and we already released a sample above to demo managed aggregation and customized IDispatch. To further demo the power of CustomQueryInterface and the ability to use the .Net technology (WCF) within COM world, this sample targets the customization of IMarshal interface by using WCF.','','','2018-09-25 16:28:42',1),(13,1,1,1,'h1. *OpenOpcUa for Sponsors*\r\nv 1.0.2.8\r\n<pre>\r\nVersion 1.0.2.8 target Windows and Linux. \r\nThe Windows toolchain is supporting only Visual Studio 2013\r\n</pre>\r\nh1. Where are the Debug DLL for CRT VS2013 ?\r\nJust here\r\nC:\\Program Files (x86)\\Microsoft Visual Studio 12.0\\VC\\redist\\Debug_NonRedist\\x86\\Microsoft.VC120.DebugCRT\r\nh1. RFC5280\r\n - https://www.rfc-editor.org/rfc/rfc5280.html \r\n','','','2019-07-19 17:46:20',4),(14,5,5,1,'XGB : eXtreme Gradient Boosting\r\nXGBoost is an optimized distributed gradient boosting library designed to be highly efficient, flexible and portable. It implements machine learning algorithms under the Gradient Boosting framework. XGBoost provides a parallel tree boosting (also known as GBDT, GBM) that solve many data science problems in a fast and accurate way. The same code runs on major distributed environment (Kubernetes, Hadoop, SGE, MPI, Dask) and can solve problems beyond billions of examples.\r\n\r\nGénéralités\r\n \r\nLes progrès récents du Machine Learning grâce aux Graphical Processing Units (GPU) et aux Réseaux de neurones convolutifs profonds (Deep Learning et Convolutional Neural Networks) ont permis de développer des modèles prédictifs sur la base d’images.\r\nDes concours tels que Image Net, remportés par Google, Microsoft et d’autres géants du numérique ont permis de démontrer la performance de ces algorithmes pour l’analyse d’image (computer vision). Les méthodes mises en place sont performantes pour reconnaître des objets à partir de données supervisées, c’est-à-dire que l’apprentissage se fait à partir de données toujours labellisées. Tous les experts s’accordent à dire que ces avancées en intelligence artificielle sont indéniables depuis que le seuil d’erreur est meilleur que celui des humains soit 5% d’erreur dans la classification d’objets parmi 22,000 catégories. Les sujets d’apprentissage partiellement supervisé voire non-supervisé tels que la détection de la fraude, la détection d’anomalie et la maintenance prédictive sont plus difficiles. \r\nSans parler d’utiliser des images, la maintenance prédictive [respectivement la fraude] sur la base de données structurées « simples » (booléens, entiers ou flottants) est un sujet de recherche d’actualité : 166 [respectivement 195] thèses soutenues en France sur le sujet entre 2012 et 2017. L’analyse de données riches telles que des images, permettra d’aller plus loin dans la recherche et de mettre à profit l’effervescence actuelle sur les sujets d’apprentissage profond et de vision par ordinateur.\r\nAujourd’hui aucun système basé sur l’analyse d’image n’a fait ses preuves sur les sujets d’apprentissage non supervisé. Certains articles de recherche ont déjà été publiés très récemment autour de la détection d’anomalie grâce à l’apprentissage profond et l’analyse d’images, mais aucun n’est appliqué sur des données de process et ils exploitent des bases de données de recherche telles que MNIST, CIFAR-10 ou Image-Net. https://export.arxiv.org/pdf/1704.06743 \r\nTout travail dans ce domaine est aujourd’hui de l’ordre de la recherche à cause des différents verrous techniques et technologiques : \r\n- Capacité de calcul : les calculs multi-GPU nécessaires à l’apprentissage sur des centaines de milliers voire des millions d’images sont coûteux et ne sont maîtrisés que par un petit écosystème d’experts – il suffit de voir le taux de participation aux Kaggle de « computer vision » comparé à ceux d’analyse de données structurées limitées à des nombres et des caractères.\r\n- Difficulté à évaluer les performances des modèles non-supervisés. Même dans le cas de données partiellement labellisées, ces « labels » ne permettront pas de découvrir de nouveaux « patterns » de fraude ou d’anomalies.\r\n- Difficile d’anticiper ce que ces modèles permettront de trouver : le terme de sérendipité est récurrent en apprentissage non-supervisé parce que ces modèles permettent de répondre à des questions inattendues mais pas forcément à celles formulées initialement.\r\nCes recherches sont souvent l’occasion de mesurer la qualité des données disponibles et de définir les pistes d’amélioration (résolution, exposition, échantillonnage, besoin de redondance ie validation par plusieurs sources d’acquisition/points de vue…)\r\n\r\nNous proposons de traiter le sujet de l’application du deep learning à la détection d’anomalies dans les process industriels\r\n','','','2020-06-05 12:44:41',2),(15,7,7,1,'h1. Gestion de la production\r\nh2. MRP est la planification des ressources de production, qui se décompose en trois phases :\r\nMRP0 : planification des besoins en composants (Material Requirements Planning). Système de planification qui détermine les besoins en composants à partir des demandes en produits finis et des approvisionnements existants (1965) ;\r\nh2. MRP1 : MRP0 auquel on a ajouté le calcul des charges de l\'outil de production engendrées par les besoins en composants (1971) ;\r\nh2. \r\nMRP2 : planification des capacités de production (Manufacturing Resources Planning). MRP1 intégrant un calcul des coûts de production et une planification des besoins intégrant la contrainte de charge à capacité finie de l\'outil de production (1979).','','','2020-06-15 18:47:20',1),(16,5,5,1,'XGB : eXtreme Gradient Boosting https://github.com/dmlc/xgboost\r\nXGBoost is an optimized distributed gradient boosting library designed to be highly efficient, flexible and portable. It implements machine learning algorithms under the Gradient Boosting framework. XGBoost provides a parallel tree boosting (also known as GBDT, GBM) that solve many data science problems in a fast and accurate way. The same code runs on major distributed environment (Kubernetes, Hadoop, SGE, MPI, Dask) and can solve problems beyond billions of examples.\r\n\r\nGénéralités\r\n \r\nLes progrès récents du Machine Learning grâce aux Graphical Processing Units (GPU) et aux Réseaux de neurones convolutifs profonds (Deep Learning et Convolutional Neural Networks) ont permis de développer des modèles prédictifs sur la base d’images.\r\nDes concours tels que Image Net, remportés par Google, Microsoft et d’autres géants du numérique ont permis de démontrer la performance de ces algorithmes pour l’analyse d’image (computer vision). Les méthodes mises en place sont performantes pour reconnaître des objets à partir de données supervisées, c’est-à-dire que l’apprentissage se fait à partir de données toujours labellisées. Tous les experts s’accordent à dire que ces avancées en intelligence artificielle sont indéniables depuis que le seuil d’erreur est meilleur que celui des humains soit 5% d’erreur dans la classification d’objets parmi 22,000 catégories. Les sujets d’apprentissage partiellement supervisé voire non-supervisé tels que la détection de la fraude, la détection d’anomalie et la maintenance prédictive sont plus difficiles. \r\nSans parler d’utiliser des images, la maintenance prédictive [respectivement la fraude] sur la base de données structurées « simples » (booléens, entiers ou flottants) est un sujet de recherche d’actualité : 166 [respectivement 195] thèses soutenues en France sur le sujet entre 2012 et 2017. L’analyse de données riches telles que des images, permettra d’aller plus loin dans la recherche et de mettre à profit l’effervescence actuelle sur les sujets d’apprentissage profond et de vision par ordinateur.\r\nAujourd’hui aucun système basé sur l’analyse d’image n’a fait ses preuves sur les sujets d’apprentissage non supervisé. Certains articles de recherche ont déjà été publiés très récemment autour de la détection d’anomalie grâce à l’apprentissage profond et l’analyse d’images, mais aucun n’est appliqué sur des données de process et ils exploitent des bases de données de recherche telles que MNIST, CIFAR-10 ou Image-Net. https://export.arxiv.org/pdf/1704.06743 \r\nTout travail dans ce domaine est aujourd’hui de l’ordre de la recherche à cause des différents verrous techniques et technologiques : \r\n- Capacité de calcul : les calculs multi-GPU nécessaires à l’apprentissage sur des centaines de milliers voire des millions d’images sont coûteux et ne sont maîtrisés que par un petit écosystème d’experts – il suffit de voir le taux de participation aux Kaggle de « computer vision » comparé à ceux d’analyse de données structurées limitées à des nombres et des caractères.\r\n- Difficulté à évaluer les performances des modèles non-supervisés. Même dans le cas de données partiellement labellisées, ces « labels » ne permettront pas de découvrir de nouveaux « patterns » de fraude ou d’anomalies.\r\n- Difficile d’anticiper ce que ces modèles permettront de trouver : le terme de sérendipité est récurrent en apprentissage non-supervisé parce que ces modèles permettent de répondre à des questions inattendues mais pas forcément à celles formulées initialement.\r\nCes recherches sont souvent l’occasion de mesurer la qualité des données disponibles et de définir les pistes d’amélioration (résolution, exposition, échantillonnage, besoin de redondance ie validation par plusieurs sources d’acquisition/points de vue…)\r\n\r\nNous proposons de traiter le sujet de l’application du deep learning à la détection d’anomalies dans les process industriels\r\n','','','2020-06-17 11:48:51',3),(17,8,8,1,'h1. Wiki\r\nPour exécuter la démo :\r\n# Installer les binaires du VS2013 : https://www.microsoft.com/fr-FR/download/details.aspx?id=40784\r\n# Lancez le serveur : StartServerRelease.bat\r\n# Utilisez un client pour vous connecter au serveur','','','2020-06-18 15:50:56',1),(18,5,5,1,'XGB : eXtreme Gradient Boosting https://github.com/dmlc/xgboost\r\nXGBoost is an optimized distributed gradient boosting library designed to be highly efficient, flexible and portable. It implements machine learning algorithms under the Gradient Boosting framework. XGBoost provides a parallel tree boosting (also known as GBDT, GBM) that solve many data science problems in a fast and accurate way. The same code runs on major distributed environment (Kubernetes, Hadoop, SGE, MPI, Dask) and can solve problems beyond billions of examples.\r\n\r\nGénéralités\r\n \r\nLes progrès récents du Machine Learning grâce aux Graphical Processing Units (GPU) et aux Réseaux de neurones convolutifs profonds (Deep Learning et Convolutional Neural Networks) ont permis de développer des modèles prédictifs sur la base d’images.\r\nDes concours tels que Image Net, remportés par Google, Microsoft et d’autres géants du numérique ont permis de démontrer la performance de ces algorithmes pour l’analyse d’image (computer vision). Les méthodes mises en place sont performantes pour reconnaître des objets à partir de données supervisées, c’est-à-dire que l’apprentissage se fait à partir de données toujours labellisées. Tous les experts s’accordent à dire que ces avancées en intelligence artificielle sont indéniables depuis que le seuil d’erreur est meilleur que celui des humains soit 5% d’erreur dans la classification d’objets parmi 22,000 catégories. Les sujets d’apprentissage partiellement supervisé voire non-supervisé tels que la détection de la fraude, la détection d’anomalie et la maintenance prédictive sont plus difficiles. \r\nSans parler d’utiliser des images, la maintenance prédictive [respectivement la fraude] sur la base de données structurées « simples » (booléens, entiers ou flottants) est un sujet de recherche d’actualité : 166 [respectivement 195] thèses soutenues en France sur le sujet entre 2012 et 2017. L’analyse de données riches telles que des images, permettra d’aller plus loin dans la recherche et de mettre à profit l’effervescence actuelle sur les sujets d’apprentissage profond et de vision par ordinateur.\r\nAujourd’hui aucun système basé sur l’analyse d’image n’a fait ses preuves sur les sujets d’apprentissage non supervisé. Certains articles de recherche ont déjà été publiés très récemment autour de la détection d’anomalie grâce à l’apprentissage profond et l’analyse d’images, mais aucun n’est appliqué sur des données de process et ils exploitent des bases de données de recherche telles que MNIST, CIFAR-10 ou Image-Net. https://export.arxiv.org/pdf/1704.06743 \r\nTout travail dans ce domaine est aujourd’hui de l’ordre de la recherche à cause des différents verrous techniques et technologiques : \r\n- Capacité de calcul : les calculs multi-GPU nécessaires à l’apprentissage sur des centaines de milliers voire des millions d’images sont coûteux et ne sont maîtrisés que par un petit écosystème d’experts – il suffit de voir le taux de participation aux Kaggle de « computer vision » comparé à ceux d’analyse de données structurées limitées à des nombres et des caractères.\r\n- Difficulté à évaluer les performances des modèles non-supervisés. Même dans le cas de données partiellement labellisées, ces « labels » ne permettront pas de découvrir de nouveaux « patterns » de fraude ou d’anomalies.\r\n- Difficile d’anticiper ce que ces modèles permettront de trouver : le terme de sérendipité est récurrent en apprentissage non-supervisé parce que ces modèles permettent de répondre à des questions inattendues mais pas forcément à celles formulées initialement.\r\nCes recherches sont souvent l’occasion de mesurer la qualité des données disponibles et de définir les pistes d’amélioration (résolution, exposition, échantillonnage, besoin de redondance ie validation par plusieurs sources d’acquisition/points de vue…)\r\n\r\nNous proposons de traiter le sujet de l’application du deep learning à la détection d’anomalies dans les process industriels\r\n\r\n\r\nFederated learning (also known as collaborative learning)\r\nhttps://en.m.wikipedia.org/wiki/Federated_learning\r\n','','','2021-08-24 17:21:23',4),(19,9,9,1,'h1. Wiki\r\nh2. Definition\r\nh3. Category \r\n@A category is a term used to classify lexical entries.@','','','2021-11-16 15:25:32',1),(20,3,3,1,'h1. OpenOpcUaWiki\r\nOPC Foundation LDS\r\n\r\n* The Local Discovery Server (LDS) provides the necessary infrastructure to publicly expose the OPC UA Servers available on a given computer.\r\n* When OpenOpcUaCoreServer is configured to register to the LDS you have to copy its certificate in C:\\ProgramData\\OPC Foundation\\UA\\Discovery\\pki\\trusted\\certs when using the OPC Fondation LDS.\r\n\r\nh1. What is ETL?\r\n* ETL, which stands for extract, transform and load, is a data integration process that combines data from multiple data sources into a single, consistent data store that is loaded into a data warehouse or other target system.\r\n* OOUACoreServer is the perfect software to achieve ETL.','','','2022-03-30 15:31:42',3),(21,3,3,1,'h1. OpenOpcUaWiki\r\nOPC Foundation LDS\r\n\r\n* The Local Discovery Server (LDS) provides the necessary infrastructure to publicly expose the OPC UA Servers available on a given computer.\r\n* When OpenOpcUaCoreServer is configured to register to the LDS you have to copy its certificate in C:\\ProgramData\\OPC Foundation\\UA\\Discovery\\pki\\trusted\\certs when using the OPC Fondation LDS.\r\n\r\nh1. What is ETL?\r\n\r\n* ETL, which stands for extract, transform and load, is a data integration process that combines data from multiple data sources into a single, consistent data store that is loaded into a data warehouse or other target system.\r\n* OOUACoreServer is the perfect software to achieve ETL.','','','2022-03-30 15:32:02',4),(22,3,3,1,'h1. OpenOpcUaWiki\r\nOPC Foundation LDS\r\n\r\n* The Local Discovery Server (LDS) provides the necessary infrastructure to publicly expose the OPC UA Servers available on a given computer.\r\n* When OpenOpcUaCoreServer is configured to register to the LDS you have to copy its certificate in C:\\ProgramData\\OPC Foundation\\UA\\Discovery\\pki\\trusted\\certs when using the OPC Fondation LDS.\r\n\r\nh1. What is ETL?\r\n\r\n* ETL, which stands for extract, transform and load, is a data integration process that combines data from multiple data sources into a single, consistent data store that is loaded into a data warehouse or other target system.\r\n* OOUACoreServer is the perfect software to achieve ETL.\r\n\r\nh1. ASCII_TABLE\r\n!ASII_TABLE.jpg!','','','2022-07-28 13:19:22',5),(23,3,3,1,'h1. OpenOpcUaWiki\r\nOPC Foundation LDS\r\n\r\n* The Local Discovery Server (LDS) provides the necessary infrastructure to publicly expose the OPC UA Servers available on a given computer.\r\n* When OpenOpcUaCoreServer is configured to register to the LDS you have to copy its certificate in C:\\ProgramData\\OPC Foundation\\UA\\Discovery\\pki\\trusted\\certs when using the OPC Fondation LDS.\r\n\r\nh1. What is ETL?\r\n\r\n* ETL, which stands for extract, transform and load, is a data integration process that combines data from multiple data sources into a single, consistent data store that is loaded into a data warehouse or other target system.\r\n* OOUACoreServer is the perfect software to achieve ETL.\r\n\r\nh1. ASCII_TABLE\r\n!ASII_TABLE.jpg!\r\n\r\nh1. LUA Tutorial Link\r\n* [[https://www.tutorialspoint.com/lua/if_else_statement_in_lua.htm]]','','','2022-08-01 18:06:58',6),(24,10,10,1,'h1. Structure Padding article\r\nhttps://thoughts-on-coding.com/2020/09/14/structure-padding-in-cpp/\r\n','','','2022-08-20 16:29:50',1);
/*!40000 ALTER TABLE `wiki_content_versions` ENABLE KEYS */;
UNLOCK TABLES;
/*!40103 SET TIME_ZONE=@OLD_TIME_ZONE */;
/*!40101 SET SQL_MODE=@OLD_SQL_MODE */;
/*!40014 SET FOREIGN_KEY_CHECKS=@OLD_FOREIGN_KEY_CHECKS */;
/*!40014 SET UNIQUE_CHECKS=@OLD_UNIQUE_CHECKS */;
/*!40101 SET CHARACTER_SET_CLIENT=@OLD_CHARACTER_SET_CLIENT */;
/*!40101 SET CHARACTER_SET_RESULTS=@OLD_CHARACTER_SET_RESULTS */;
/*!40101 SET COLLATION_CONNECTION=@OLD_COLLATION_CONNECTION */;
/*!40111 SET SQL_NOTES=@OLD_SQL_NOTES */;
-- Dump completed on 2023-02-19 17:26:20