« Bots » : différence entre les versions

De Wikipast
Aller à la navigation Aller à la recherche
Aucun résumé des modifications
 
(74 versions intermédiaires par le même utilisateur non affichées)
Ligne 1 : Ligne 1 :
== Proposition 2020 ==
== Propositions 2021 ==


En 2019, l’équipe du DHLAB a effectué une extraction de 4 Million d’adresses dans les anciens annuaires de la ville de Paris
{| class="wikitable"
|- style="font-weight:bold; text-decoration:underline;"
! Nom du bot
! Description
! Membre 1
! Membre 2
! Membre 3
! Membre 4
|-
| style="font-weight:bold;" | [[DisambiguationBot]]
| Création d'une page de désambiugation pour des pages ayant des noms similaires
| Clara Beaubis
| Julia Heiniger
| Simon Liétar
|
|-
| style="font-weight:bold;" | ImpressoBot
| Importation des entitées nommées non présentes dans Wikidata et trouvées dans les journaux d'[https://impresso-project.ch/app/ Impresso] (extraction déjà effectuée)
|
|
|
|
|-
| style="font-weight:bold;" | WebLinkBot
| Recherche d’informations supplémentaires à ajouter sur les pages Wikipast et création de liens vers ces pages
|
|
|
|
|-
| style="font-weight:bold;" | WikidataImporterBot
| Complétion des pages Wikipast ayant des information sur Wikidata (à partir de l'annotation de [http://wikipast.epfl.ch/wiki/Wikidataficator Wikidataficator])
|
|
|
|
|-
| style="font-weight:bold;" | [[UniqueIDBot]]
| Définition d’un WikipastID unique et insertion dans les pages déjà créées
| Louis-Dardaye Dramé
| Eloi Garandel
| Robin Ottinger
|
|-
| style="font-weight:bold;" | [[EliteBot]]
| Importation dans Wikipast des données de la base des [https://www2.unil.ch/elitessuisses/index.php?page=accueil Élites Suisses]
| Joshua Bernimoulin
| Nicolas Raulin
| Ira Dobbelaere
|
|-
| style="font-weight:bold;" | [[MostWantedBot]]
| Création dans Wikipast de pages à partir de la liste [https://en.wikipedia.org/wiki/Wikipedia:Most-wanted_articles “Most Wanted Wikipedia Article”]
| Arthur André
| Xavier Dulex
|  Yucef Grebici
|
|-
| style="font-weight:bold;" | [[LinkBot2]]
| Augmenter le nombre de liens entre les pages Wikipast par la création d’index plus nombreux. Note: Contient deux fonctionnalités: Amélioration de [[PageUpdaterBot]] et division de pages trop longues en sous-pages en regroupant les entrées selon décennies. N'a pas vraiment un lien avec [[LinkBot]] au niveau de fonctionnalité.
| Parzival Nussbaum
| Noah Kaltenrieder
| Léonard Flückiger
|
|-
| style="font-weight:bold;" | ImageBot2
| Amelioration d’[http://wikipast.epfl.ch/wiki/ImageBot ImageBot] (avec par exemple, la création d’images génériques dans le cas où aucune image est présente)
|
|
|
|
|-
| style="font-weight:bold;" | [[GenealogyBot]]
| Importation d’informations à partir de base généalogique (source à choisir et citer)
| Jeremy Dezalos
| Romain Küenzi
| Armelle Bouhali
|
|-
| style="font-weight:bold;" | PlaceBot
| Importation d’informations à partir de Geonames ou autre et recherche des pages Wikipast ayant des informations sur ces lieux
|
|
|
|-
| style="font-weight:bold;" | [[ArtBot]]
| Importation d’événements de ventes d’oeuvres d’art à partir de [https://github.com/thegetty/provenance-index-csv Getty Provenance Index]
| Michael Richter
| Vincent Philippoz
| Agatha Duranceau
|
|-
| style="font-weight:bold;" | [[SportBot]]
| Importation de données sur des évènements sportifs (source à choisir et citer)
| Antonin Stampbach
| Enzo Palmisano
| Alessio Verardo
| Aurelien Ferlay
|-
| style="font-weight:bold;" | [[WarBot]]
| Importation de données sur les guerres mondiales (source à choisir et citer)
| Mohamed Ali Dhraief
| Nora Bugmann
| Stefan Eric
|
|-
|}


Di Lenardo, I., Barman, R., Descombes, A., Kaplan F. (2019). Repopulating Paris: massive extraction of 4 Million addresses from city directories between 1839 and 1922, Digital Humanities conference DH2019, Utrecht, Pays-Bas, https://dev.clariah.nl/files/dh2019/boa/0878.html
== Projets 2020 ==


Les étudiants du cours en 2020 vont travailler sur cette base d’extraction pour créer des millions de nouvelles entrées dans Wikipast en programmant des BottinBots
À partir de l'extraction de 4 million d’adresses dans les anciens annuaires de la ville de Paris effectuée par l'équipe du DHLAB (Di Lenardo, I., Barman, R., Descombes, A., Kaplan F. (2019). [https://dev.clariah.nl/files/dh2019/boa/0878.html Repopulating Paris: massive extraction of 4 Million addresses from city directories between 1839 and 1922, Digital Humanities conference DH2019, Utrecht, Pays-Bas]), les étudiants du cours en 2020 ont créé des millions de nouvelles entrées dans Wikipast en programmant des BottinBots – chacun se voyant attribuée une partie du corpus, et prêtant attention aux cas d'homonymie, d'erreurs d'OCR, et de pages préexistantes.
 
Chaque groupe recevra une partie du Corpus et extrait et devra créer les pages correspondantes avec une ligne du type
 
1875 / Paris. Marcel Dupont exerce l’occupation de vendeur de vin au 20 boulevard poissonnière (Lien vers la page de l’annuaire correspondant)
 
Attention
* Beaucoup de personnes se retrouvent d’année en année, il ne faudra pas créer plusieurs pages dans ce cas  
* Certaines personnes sont déjà dans Wikipast, il ne faudra pas effacer les pages correspondantes, mais au contraire rajouter la ligne à la bonne année.
* Il y aura dans certains cas des homonymes. Il faudra trouver un moyen de nommer les pages pour les gérer.
* Il y aura des erreurs d’OCR dans les données. Il faudra développer une stratégie pour éventuellement normaliser certains noms.
 
En utilisant les codes des bots faits les années précédentes, chaque groupe pour tenter d’aller le plus loin possible dans la génération de pages de qualité.
 
Exemples d’idées
* Lien des adresses vers page Wikipedia de la rue correspondante.  
* Association avec les id Wikidata quand cela est possible. Éventuellement création d’une Wikibase propre à Wikipast pour donner nos propres ID (à discuter collectivement)
* Recherche systématique d'images illustrations ou d'autres informations dans la presse numérisée (par exemple les collections numérisées sur Gallica https://gallica.bnf.fr/html/und/presse-et-revues/presse-par-thematiques)


{| class="wikitable"
{| class="wikitable"
! style="text-align:left;" | Horaire de passage
! style="text-align:left;" | Nom de bot
! style="text-align:left;" | Nom de bot
! style="text-align:left;" | Membre 1
! style="text-align:left;" | Membre 1
! style="text-align:left;" | Membre 2
! style="text-align:left;" | Membre 2
! style="text-align:left;" | Membre 3
! style="text-align:left;" | Membre 3
! style="text-align:left;" | Données
|-
|-
! style="text-align:left;" | [[BottinBot1]]
! style="text-align:left;"| 13:15-13:30
| Basile Spaenlehauer || Ahmed Zouaoui || Abed Alrahman Shabaan
| [[BottinBot1]]
|-
| Basile Spaenlehauer || Ahmed Zouaoui || Abed Alrahman Shabaan || [https://drive.google.com/open?id=1A6v_xDeul3HnPcsojaxYO2KgvIcbO8Dv données groupe 1]
! style="text-align:left;" | [[BottinBot2]]
| Maximilian Forberg ||  ||
|-
|-
! style="text-align:left;" | [[BottinBot3]]
! style="text-align:left;" | 13:30-13:45
|  || ||
| [[BottinBot2]]
| Maximilian Forberg || Damien Geissbuhler || Eliott Mamon || [https://drive.google.com/open?id=1uJYlR6m1W-yje9vXhR2g2focueXKvD34 données groupe 2]
|-
|-
! style="text-align:left;" | [[BottinBot4]]
! style="text-align:left;" | 13:45-14:00
| || ||
| [[BottinBot3]]
| Maxime Jan|| Aleandro Eccel  || || [https://drive.google.com/open?id=1gvN6Fq1z2cfIJA_IwWOgRubctOiYNEZT données groupe 3]
|-
|-
! style="text-align:left;" | [[BottinBot5]]
! style="text-align:left;" | 14:00-14:15
| || ||
| [[BottinBot4]]
| Raphael Bonatti || Benoît Maillard || Justin Deschenaux || [https://drive.google.com/open?id=1MLv_BWPFr5xpetDbVYzztBWnJTtB2AAi données groupe 4]
|-
|-
! style="text-align:left;" | [[BottinBot6]]
! style="text-align:left;" |14:15:14:30
| || ||  
| [[BottinBot5]]
| Pierre Henon|| Juliette Barbier || || [https://drive.google.com/open?id=1mtHLF8DSZ2pyB_DPkzmB7mT2DZ-6fOwP données groupe 5]
|-
|-
! style="text-align:left;" | [[BottinBot7]]
! style="text-align:left;" | 14:30-14:45
| ||  ||
| [[BottinBot6]]
| Ayman Mezghani || Clément Lhoste ||  || [https://drive.google.com/open?id=15gYaCw5cYOGoEDfLoTi5pakzpOcias0a données groupe 6]
|}
|}


Ligne 113 : Ligne 208 :
|-
|-
! style="text-align:left;" | [[SliderBot]]
! style="text-align:left;" | [[SliderBot]]
| Guhennec Paul || Wildi Maël || Etienne Bonvin || Mathilde Raynal || Stefano Politi
| Paul Guhennec || Maël Wildi || Etienne Bonvin || Mathilde Raynal || Stefano Politi
|-
|-
! style="text-align:left;" | [[GraderBot]]
! style="text-align:left;" | [[GraderBot]]

Dernière version du 1 juin 2021 à 12:35

Propositions 2021

Nom du bot Description Membre 1 Membre 2 Membre 3 Membre 4
DisambiguationBot Création d'une page de désambiugation pour des pages ayant des noms similaires Clara Beaubis Julia Heiniger Simon Liétar
ImpressoBot Importation des entitées nommées non présentes dans Wikidata et trouvées dans les journaux d'Impresso (extraction déjà effectuée)
WebLinkBot Recherche d’informations supplémentaires à ajouter sur les pages Wikipast et création de liens vers ces pages
WikidataImporterBot Complétion des pages Wikipast ayant des information sur Wikidata (à partir de l'annotation de Wikidataficator)
UniqueIDBot Définition d’un WikipastID unique et insertion dans les pages déjà créées Louis-Dardaye Dramé Eloi Garandel Robin Ottinger
EliteBot Importation dans Wikipast des données de la base des Élites Suisses Joshua Bernimoulin Nicolas Raulin Ira Dobbelaere
MostWantedBot Création dans Wikipast de pages à partir de la liste “Most Wanted Wikipedia Article” Arthur André Xavier Dulex Yucef Grebici
LinkBot2 Augmenter le nombre de liens entre les pages Wikipast par la création d’index plus nombreux. Note: Contient deux fonctionnalités: Amélioration de PageUpdaterBot et division de pages trop longues en sous-pages en regroupant les entrées selon décennies. N'a pas vraiment un lien avec LinkBot au niveau de fonctionnalité. Parzival Nussbaum Noah Kaltenrieder Léonard Flückiger
ImageBot2 Amelioration d’ImageBot (avec par exemple, la création d’images génériques dans le cas où aucune image est présente)
GenealogyBot Importation d’informations à partir de base généalogique (source à choisir et citer) Jeremy Dezalos Romain Küenzi Armelle Bouhali
PlaceBot Importation d’informations à partir de Geonames ou autre et recherche des pages Wikipast ayant des informations sur ces lieux
ArtBot Importation d’événements de ventes d’oeuvres d’art à partir de Getty Provenance Index Michael Richter Vincent Philippoz Agatha Duranceau
SportBot Importation de données sur des évènements sportifs (source à choisir et citer) Antonin Stampbach Enzo Palmisano Alessio Verardo Aurelien Ferlay
WarBot Importation de données sur les guerres mondiales (source à choisir et citer) Mohamed Ali Dhraief Nora Bugmann Stefan Eric

Projets 2020

À partir de l'extraction de 4 million d’adresses dans les anciens annuaires de la ville de Paris effectuée par l'équipe du DHLAB (Di Lenardo, I., Barman, R., Descombes, A., Kaplan F. (2019). Repopulating Paris: massive extraction of 4 Million addresses from city directories between 1839 and 1922, Digital Humanities conference DH2019, Utrecht, Pays-Bas), les étudiants du cours en 2020 ont créé des millions de nouvelles entrées dans Wikipast en programmant des BottinBots – chacun se voyant attribuée une partie du corpus, et prêtant attention aux cas d'homonymie, d'erreurs d'OCR, et de pages préexistantes.

Horaire de passage Nom de bot Membre 1 Membre 2 Membre 3 Données
13:15-13:30 BottinBot1 Basile Spaenlehauer Ahmed Zouaoui Abed Alrahman Shabaan données groupe 1
13:30-13:45 BottinBot2 Maximilian Forberg Damien Geissbuhler Eliott Mamon données groupe 2
13:45-14:00 BottinBot3 Maxime Jan Aleandro Eccel données groupe 3
14:00-14:15 BottinBot4 Raphael Bonatti Benoît Maillard Justin Deschenaux données groupe 4
14:15:14:30 BottinBot5 Pierre Henon Juliette Barbier données groupe 5
14:30-14:45 BottinBot6 Ayman Mezghani Clément Lhoste données groupe 6

Projets 2019

Nom de bot Membre 1 Membre 2 Membre 3
Wikidataficator Jeremy Mion Andrea Scalisi
GallicaSPARQLBot Eric Jollès Robin Mamie
EventFormatBot Julien Malka Antoine Crettenand
CurvyBot Ugo Damiano Cédric Tomasini
MasterBot Karim Assi
MinerRegExBot Lucien Iseli Jules Gottraux Florian Ravasi
StatBot Nicholas Greensmith Ruslan Mushkaev

Projets 2018

Nom de bot Membre 1 Membre 2 Membre 3 Membre 4 Membre 5
SummarizingBot Andrey Piskunov Daniil Morzhakov
SimilarBot Christian Bertoni Ludovico Machet Mathieu Suter Elisa Vidal-Revel Rémi Petitpierre
TranslatorBot Pierre Gabioud Maxime Lemarignier Natalia Nessler Kopiga Rasiah Yusi Zou
VandalBot Mathieu Ducroux Frédéric Myotte Stanislas Michel Vincent Coriou
Triplificator Basil Hall Shana Calmes Jan Frogg Souhail Elaissaoui
Creatobot Bourquin Vladimir Duruz Noé Natalija Ljubic Evard Amandine
SliderBot Paul Guhennec Maël Wildi Etienne Bonvin Mathilde Raynal Stefano Politi
GraderBot Aurélien Debbas Léo Meynent
EntryMakerBot Luca Marti Alexandre Pages

Projets 2017

Wikipast Bot Projects member_1 member_2 member_3 member_4 member_5
InferenceBot Marc Jollès Pierre-Alexandre Lee Leandro Kieliger Quentin Bacuet Aurélien Monbaron
SourceBot Karine Perrard Matthieu Baud Alexis Dewaele Grégoire Mayrhofer
TangoBot Patrik Wagner Stephane Selim Alex Cavaleri Antoine Gomez
LinkBot Thierry Bossy Ignacio Aleman Andy Caforio Ziyan Li Nawel Naas
ImageBot Thomas Boyer Ghislain Asin Samuel Sekarski Christine Roth
ChronoBot Aurélien Verdier Jonathan Charrière Arnau Albà Sonia Bouchiba Sébastien Morel
SPARQLBot Marc Bickel Raphaël Barman Grégoire Hirt Houssam Ben Hallam
FormatBot Cem Musluoglu Alex Jourdan Jan Snoeijs Claudio Loureiro
OrthoBot Leblanc Martin Antoine Launay Bruno Wicht Cinéus Jennifer M.
PageUpdaterBot Pannatier Arnaud Fournier Romain Giorla Matteo Viaccoz Cédric
BioPathBot Christophe Badoux Kim Lan Phan Hoang Robin Lang Julien Burkhard