« Bots » : différence entre les versions

De Wikipast
Aller à la navigation Aller à la recherche
Aucun résumé des modifications
 
(27 versions intermédiaires par le même utilisateur non affichées)
Ligne 8 : Ligne 8 :
! Membre 2
! Membre 2
! Membre 3
! Membre 3
! Membre 4
|-
|-
| style="font-weight:bold;" | DisambiguationBot
| style="font-weight:bold;" | [[DisambiguationBot]]
| Création d'une page de désambiugation pour des pages ayant des noms similaires
| Création d'une page de désambiugation pour des pages ayant des noms similaires
| Clara Beaubis
| Clara Beaubis
| Julia Heiniger
| Julia Heiniger
| Simon Liétar
| Simon Liétar
|
|-
|-
| style="font-weight:bold;" | ImpressoBot
| style="font-weight:bold;" | ImpressoBot
Ligne 19 : Ligne 21 :
|  
|  
|  
|  
|
|  
|  
|-
|-
Ligne 25 : Ligne 28 :
|  
|  
|  
|  
|
|  
|  
|-
|-
Ligne 30 : Ligne 34 :
| Complétion des pages Wikipast ayant des information sur Wikidata (à partir de l'annotation de [http://wikipast.epfl.ch/wiki/Wikidataficator Wikidataficator])
| Complétion des pages Wikipast ayant des information sur Wikidata (à partir de l'annotation de [http://wikipast.epfl.ch/wiki/Wikidataficator Wikidataficator])
|  
|  
|
|  
|  
|  
|  
|-
|-
| style="font-weight:bold;" | UniqueIDBot
| style="font-weight:bold;" | [[UniqueIDBot]]
| Définition d’un WikipastID unique et insertion dans les pages déjà créées
| Définition d’un WikipastID unique et insertion dans les pages déjà créées
|  
| Louis-Dardaye Dramé
|  
| Eloi Garandel
|  
| Robin Ottinger
|
|-
|-
| style="font-weight:bold;" | EliteBot
| style="font-weight:bold;" | [[EliteBot]]
| Importation dans Wikipast des données de la base des [https://www2.unil.ch/elitessuisses/index.php?page=accueil Élites Suisses]
| Importation dans Wikipast des données de la base des [https://www2.unil.ch/elitessuisses/index.php?page=accueil Élites Suisses]
| Joshua Bernimoulin
| Joshua Bernimoulin
| Nicolas Raulin
| Nicolas Raulin
| Ira Dobbelaere
| Ira Dobbelaere
|
|-
|-
| style="font-weight:bold;" | MostWantedBot
| style="font-weight:bold;" | [[MostWantedBot]]
| Création dans Wikipast de pages à partir de la liste [https://en.wikipedia.org/wiki/Wikipedia:Most-wanted_articles “Most Wanted Wikipedia Article”]
| Création dans Wikipast de pages à partir de la liste [https://en.wikipedia.org/wiki/Wikipedia:Most-wanted_articles “Most Wanted Wikipedia Article”]
| Arthur André
| Arthur André
|Xavier Dulex
| Xavier Dulex
|  Yucef Grebici
|  Yucef Grebici
|
|
|-
|-
| style="font-weight:bold;" | LinkBot2
| style="font-weight:bold;" | [[LinkBot2]]
| Augmenter le nombre de liens entre les pages Wikipast par la création d’index plus nombreux
| Augmenter le nombre de liens entre les pages Wikipast par la création d’index plus nombreux. Note: Contient deux fonctionnalités: Amélioration de [[PageUpdaterBot]] et division de pages trop longues en sous-pages en regroupant les entrées selon décennies. N'a pas vraiment un lien avec [[LinkBot]] au niveau de fonctionnalité.
| Parzival Nussbaum
| Parzival Nussbaum
| Noah Kaltenrieder
| Noah Kaltenrieder
|  
| Léonard Flückiger
|
|-
|-
| style="font-weight:bold;" | ImageBot2
| style="font-weight:bold;" | ImageBot2
Ligne 63 : Ligne 71 :
|  
|  
|  
|  
|
|-
|-
| style="font-weight:bold;" | GenealogyBot
| style="font-weight:bold;" | [[GenealogyBot]]
| Importation d’informations à partir de base généalogique (source à choisir et citer)
| Importation d’informations à partir de base généalogique (source à choisir et citer)
| Jeremy Dezalos
| Jeremy Dezalos
| Romain Küenzi
| Romain Küenzi
| Armelle Bouhali
| Armelle Bouhali
|
|-
|-
| style="font-weight:bold;" | PlaceBot
| style="font-weight:bold;" | PlaceBot
Ligne 74 : Ligne 84 :
|  
|  
|  
|  
|  
|  
|-
|-
| style="font-weight:bold;" | ArtBot
| style="font-weight:bold;" | [[ArtBot]]
| Importation d’événements de ventes d’oeuvres d’art (source à choisir et citer)
| Importation d’événements de ventes d’oeuvres d’art à partir de [https://github.com/thegetty/provenance-index-csv Getty Provenance Index]
| Michael Richter
| Michael Richter
| Vincent Philippoz
| Vincent Philippoz
| Agatha Duranceau
| Agatha Duranceau
|
|-
|-
| style="font-weight:bold;" | SportBot
| style="font-weight:bold;" | [[SportBot]]
| Importation de données sur des évènements sportifs (source à choisir et citer)
| Importation de données sur des évènements sportifs (source à choisir et citer)
| Antonin Stampbach
| Antonin Stampbach
| Enzo Palmisano
| Enzo Palmisano
| Alessio Verardo
| Alessio Verardo
| Aurelien Ferlay
|-
|-
| style="font-weight:bold;" | WarBot
| style="font-weight:bold;" | [[WarBot]]
| Importation de données sur les guerres mondiales (source à choisir et citer)
| Importation de données sur les guerres mondiales (source à choisir et citer)
|  
| Mohamed Ali Dhraief
| Louis-Dardaye Dramé
| Nora Bugmann
| Robin Ottinger
| Stefan Eric
|-
|
|
|
|
|
|-
| style="font-weight:bold;" | NouveauBot1
| Autre idée
|
|
|
|-
| style="font-weight:bold;" | NouveauBot2
| Autre idée
|
|
|
|-
| style="font-weight:bold;" | NouveauBot3
| Autre idée
|
|
|
|-
| style="font-weight:bold;" | NouveauBot4
| Autre idée
|
|  
|  
|-
|-
| style="font-weight:bold;" | NouveauBot5
| Autre idée
|
|
|
|}
|}


== Projets 2020 ==
== Projets 2020 ==


En 2019, l’équipe du DHLAB a effectué une extraction de 4 million d’adresses dans les anciens annuaires de la ville de Paris
À partir de l'extraction de 4 million d’adresses dans les anciens annuaires de la ville de Paris effectuée par l'équipe du DHLAB (Di Lenardo, I., Barman, R., Descombes, A., Kaplan F. (2019). [https://dev.clariah.nl/files/dh2019/boa/0878.html Repopulating Paris: massive extraction of 4 Million addresses from city directories between 1839 and 1922, Digital Humanities conference DH2019, Utrecht, Pays-Bas]), les étudiants du cours en 2020 ont créé des millions de nouvelles entrées dans Wikipast en programmant des BottinBots – chacun se voyant attribuée une partie du corpus, et prêtant attention aux cas d'homonymie, d'erreurs d'OCR, et de pages préexistantes.
 
Di Lenardo, I., Barman, R., Descombes, A., Kaplan F. (2019). [https://dev.clariah.nl/files/dh2019/boa/0878.html Repopulating Paris: massive extraction of 4 Million addresses from city directories between 1839 and 1922, Digital Humanities conference DH2019, Utrecht, Pays-Bas]
 
Les étudiants du cours en 2020 vont travailler sur cette base d’extraction pour créer des millions de nouvelles entrées dans Wikipast en programmant des BottinBots. Chaque groupe recevra une partie du Corpus et extrait et devra créer les pages correspondantes avec une ligne du type
 
* [[1875]] / [[Paris]]. [[Marcel Dupont]] exerce l’occupation de [[vendeur de vin]] au [[20 boulevard poissonnière]] ([Lien vers la page de l’annuaire correspondant])
 
ou
* [[1875]] / [[Paris]]. [[Mention]] de [[Marcel Dupont]] comme [[vendeur de vin]] au [[20 boulevard poissonnière]] (Lien vers la page de l’annuaire correspondant)
 
ou
* [[1875]] / [[Paris]], [[boulevard poissonnière 20]]. [[Mention]] de [[Marcel Dupont]] comme [[vendeur de vin]] (Lien vers la page de l’annuaire correspondant)
 
Attention
* Beaucoup de personnes se retrouvent d’année en année, il ne faudra pas créer plusieurs pages dans ce cas  
* Certaines personnes sont déjà dans Wikipast, il ne faudra pas effacer les pages correspondantes, mais au contraire rajouter la ligne à la bonne année.
* Il y aura dans certains cas des homonymes. Il faudra trouver un moyen de nommer les pages pour les gérer.
* Il y aura des erreurs d’OCR dans les données. Il faudra développer une stratégie pour éventuellement normaliser certains noms.
 
En utilisant les codes des bots faits les années précédentes, chaque groupe pour tenter d’aller le plus loin possible dans la génération de pages de qualité.
 
Exemples d’idées
* Lien des adresses vers page Wikipedia de la rue correspondante.
* Association avec les id Wikidata quand cela est possible.
* Éventuellement création d’une Wikibase propre à Wikipast pour donner nos propres ID (à discuter collectivement), par exemple en construisant la page [[Ontologie annuaires Paris]]
* Recherche systématique d'images illustrations ou d'autres informations dans la presse numérisée (par exemple les collections numérisées sur Gallica https://gallica.bnf.fr/html/und/presse-et-revues/presse-par-thematiques)


{| class="wikitable"
{| class="wikitable"

Dernière version du 1 juin 2021 à 12:35

Propositions 2021

Nom du bot Description Membre 1 Membre 2 Membre 3 Membre 4
DisambiguationBot Création d'une page de désambiugation pour des pages ayant des noms similaires Clara Beaubis Julia Heiniger Simon Liétar
ImpressoBot Importation des entitées nommées non présentes dans Wikidata et trouvées dans les journaux d'Impresso (extraction déjà effectuée)
WebLinkBot Recherche d’informations supplémentaires à ajouter sur les pages Wikipast et création de liens vers ces pages
WikidataImporterBot Complétion des pages Wikipast ayant des information sur Wikidata (à partir de l'annotation de Wikidataficator)
UniqueIDBot Définition d’un WikipastID unique et insertion dans les pages déjà créées Louis-Dardaye Dramé Eloi Garandel Robin Ottinger
EliteBot Importation dans Wikipast des données de la base des Élites Suisses Joshua Bernimoulin Nicolas Raulin Ira Dobbelaere
MostWantedBot Création dans Wikipast de pages à partir de la liste “Most Wanted Wikipedia Article” Arthur André Xavier Dulex Yucef Grebici
LinkBot2 Augmenter le nombre de liens entre les pages Wikipast par la création d’index plus nombreux. Note: Contient deux fonctionnalités: Amélioration de PageUpdaterBot et division de pages trop longues en sous-pages en regroupant les entrées selon décennies. N'a pas vraiment un lien avec LinkBot au niveau de fonctionnalité. Parzival Nussbaum Noah Kaltenrieder Léonard Flückiger
ImageBot2 Amelioration d’ImageBot (avec par exemple, la création d’images génériques dans le cas où aucune image est présente)
GenealogyBot Importation d’informations à partir de base généalogique (source à choisir et citer) Jeremy Dezalos Romain Küenzi Armelle Bouhali
PlaceBot Importation d’informations à partir de Geonames ou autre et recherche des pages Wikipast ayant des informations sur ces lieux
ArtBot Importation d’événements de ventes d’oeuvres d’art à partir de Getty Provenance Index Michael Richter Vincent Philippoz Agatha Duranceau
SportBot Importation de données sur des évènements sportifs (source à choisir et citer) Antonin Stampbach Enzo Palmisano Alessio Verardo Aurelien Ferlay
WarBot Importation de données sur les guerres mondiales (source à choisir et citer) Mohamed Ali Dhraief Nora Bugmann Stefan Eric

Projets 2020

À partir de l'extraction de 4 million d’adresses dans les anciens annuaires de la ville de Paris effectuée par l'équipe du DHLAB (Di Lenardo, I., Barman, R., Descombes, A., Kaplan F. (2019). Repopulating Paris: massive extraction of 4 Million addresses from city directories between 1839 and 1922, Digital Humanities conference DH2019, Utrecht, Pays-Bas), les étudiants du cours en 2020 ont créé des millions de nouvelles entrées dans Wikipast en programmant des BottinBots – chacun se voyant attribuée une partie du corpus, et prêtant attention aux cas d'homonymie, d'erreurs d'OCR, et de pages préexistantes.

Horaire de passage Nom de bot Membre 1 Membre 2 Membre 3 Données
13:15-13:30 BottinBot1 Basile Spaenlehauer Ahmed Zouaoui Abed Alrahman Shabaan données groupe 1
13:30-13:45 BottinBot2 Maximilian Forberg Damien Geissbuhler Eliott Mamon données groupe 2
13:45-14:00 BottinBot3 Maxime Jan Aleandro Eccel données groupe 3
14:00-14:15 BottinBot4 Raphael Bonatti Benoît Maillard Justin Deschenaux données groupe 4
14:15:14:30 BottinBot5 Pierre Henon Juliette Barbier données groupe 5
14:30-14:45 BottinBot6 Ayman Mezghani Clément Lhoste données groupe 6

Projets 2019

Nom de bot Membre 1 Membre 2 Membre 3
Wikidataficator Jeremy Mion Andrea Scalisi
GallicaSPARQLBot Eric Jollès Robin Mamie
EventFormatBot Julien Malka Antoine Crettenand
CurvyBot Ugo Damiano Cédric Tomasini
MasterBot Karim Assi
MinerRegExBot Lucien Iseli Jules Gottraux Florian Ravasi
StatBot Nicholas Greensmith Ruslan Mushkaev

Projets 2018

Nom de bot Membre 1 Membre 2 Membre 3 Membre 4 Membre 5
SummarizingBot Andrey Piskunov Daniil Morzhakov
SimilarBot Christian Bertoni Ludovico Machet Mathieu Suter Elisa Vidal-Revel Rémi Petitpierre
TranslatorBot Pierre Gabioud Maxime Lemarignier Natalia Nessler Kopiga Rasiah Yusi Zou
VandalBot Mathieu Ducroux Frédéric Myotte Stanislas Michel Vincent Coriou
Triplificator Basil Hall Shana Calmes Jan Frogg Souhail Elaissaoui
Creatobot Bourquin Vladimir Duruz Noé Natalija Ljubic Evard Amandine
SliderBot Paul Guhennec Maël Wildi Etienne Bonvin Mathilde Raynal Stefano Politi
GraderBot Aurélien Debbas Léo Meynent
EntryMakerBot Luca Marti Alexandre Pages

Projets 2017

Wikipast Bot Projects member_1 member_2 member_3 member_4 member_5
InferenceBot Marc Jollès Pierre-Alexandre Lee Leandro Kieliger Quentin Bacuet Aurélien Monbaron
SourceBot Karine Perrard Matthieu Baud Alexis Dewaele Grégoire Mayrhofer
TangoBot Patrik Wagner Stephane Selim Alex Cavaleri Antoine Gomez
LinkBot Thierry Bossy Ignacio Aleman Andy Caforio Ziyan Li Nawel Naas
ImageBot Thomas Boyer Ghislain Asin Samuel Sekarski Christine Roth
ChronoBot Aurélien Verdier Jonathan Charrière Arnau Albà Sonia Bouchiba Sébastien Morel
SPARQLBot Marc Bickel Raphaël Barman Grégoire Hirt Houssam Ben Hallam
FormatBot Cem Musluoglu Alex Jourdan Jan Snoeijs Claudio Loureiro
OrthoBot Leblanc Martin Antoine Launay Bruno Wicht Cinéus Jennifer M.
PageUpdaterBot Pannatier Arnaud Fournier Romain Giorla Matteo Viaccoz Cédric
BioPathBot Christophe Badoux Kim Lan Phan Hoang Robin Lang Julien Burkhard