owned this note
owned this note
Published
Linked with GitHub
# Library Carpentry Köln
Zeitplan, Installationshinweise etc.:
https://evamarik.github.io/2018-11-12-cologne/
# Organisatorisches
- [x] Installation - warum
- [x] Vorstellung Instructors
- [x] Vorstellung der Teilnehmer
- [x] Was ist LC
- [x] Internet-Zugang
- [x] Name tags
- [x] Sticky notes
- [x] Code of Conduct https://software-carpentry.org/conduct/ => Be excellent to each other!
- [x] Pausen
- [x] Kaffee/Tee
- [x] Toiletten
- [x] Wifi
- [x] Kursmaterial
- [x] Ice breaker
- [x] Pad:
- Short URL: https://bit.ly/2JVVsY9
- Exercise - add your name to the list of participants
- [ ] Motivation
- Efficient data analysis
- Automation
- Reproducibility / Transparency
- [ ] Probleme mit Installation? => Pause
- [ ] Fotos - Social media
- [ ] Gemeinsames Abendessen am Montag um 18:30 Uhr im Café Krümel, Zülpicher Str. 207, 50937 Köln. https://goo.gl/maps/BMk1Sq8bHu12
# OpenRefine
* Bitte laden Sie diesen Datensatz als Datei herunter (Firefox: Rechtsklick -> Ziel speichern unter): [doaj-article-sample.csv](https://github.com/LibraryCarpentry/lc-open-refine/raw/gh-pages/data/doaj-article-sample.csv)
* Oder fügen Sie folgende URL direkt in OpenRefine als `Web Adress` ein:
https://github.com/LibraryCarpentry/lc-open-refine/raw/gh-pages/data/doaj-article-sample.csv
* Adresse, um OpenRefine in einem Web-Browser zu öffnen: http://127.0.0.1:3333
* Reguläre Ausdrücke: https://librarycarpentry.github.io/lc-data-intro/04-regular-expressions/index.html
### Aufgabe Zellen aufsplitten / wieder zusammenfügen:
* Welches Trennzeichen wird in den "Subjects"-Zellen verwendet?
* Wie würden Sie die "Subjects" in einzelne Zellen aufteilen?
* Jetzt bringen Sie die "Subjects" bitte wieder zusammen.
### Aufgabe Facetten
* Welche Lizenz kommt am häufigsten in dieser Datei vor?
* Wie viele Artikel haben keine Lizenz?
Text-Filter: Hier können Regular Expressions genutzt werden. Weitere Infos dazu: https://librarycarpentry.github.io/lc-data-intro/04-regular-expressions/
### Aufgabe Filter
Bitte finden Sie alle Publikationen in diesem Datensatz, die keine DOI haben.
# Clustering
Mehr Information zu den Clusterng-Algorithmen:
https://github.com/OpenRefine/OpenRefine/wiki/Clustering-In-Depth
# Transformationen
GREL: General Refine Expression Language
https://github.com/OpenRefine/OpenRefine/wiki/General-Refine-Expression-Language
## Datumsumwandlungen
Zusätzliche Infos findet man hier: https://github.com/OpenRefine/OpenRefine/wiki/GREL-Date-Functions
## Crossref API
Beispiel http://api.crossref.org/journals/1422-0067
Doku unter https://github.com/CrossRef/rest-api-doc
## XML Beispiel
Beispiel XML-Daten (Quelle: Tate Gallery London):
https://app.box.com/s/3thxm10x6vhtfyien3fl42bbhgp0hd8g
# Python
- https://automatetheboringstuff.com/
- https://de.wikipedia.org/wiki/Internationale_Standardbuchnummer
- https://raw.githubusercontent.com/OpenAPC/openapc-de/master/data/fuberlin/APC_FU_Berlin_2015.csv
- https://api.crossref.org/works/10.1037/0003-066X.59.1.29
# Git
> 20min-Vorbereitung: Katrin Leinweber (2018) Wieso, weshalb, warum Versionskontrolle? Und wie? [doi.org/10.5446/32224](https://av.tib.eu/media/32224)
- [Präsentationsdatei](https://docs.google.com/presentation/d/1acfTeMfy8Tia8CDEh4mPHrdImQqZYd56zRGWftbq4cY/edit)
- Installtion der Git Bash: https://git-scm.com/downloads
- [GitHub-Desktop-Bilderdemo](https://tibhannover.github.io/git-desktop/04-changes/)
- https://teletype.atom.io zur gleichzeitigen, kollaborativen Arbeit an Textdokumenten
# Repo-Tausch
- https://github.com/katrinleinweber/LC-GitHub-Desktop
- https://github.com/Schmerbauch/LC-GitHub-Desktop
- https://github.com/donmiguel82/LC-GitHub-Desktop
- https://github.com/mumoebius/LC-GitHub-Desktop1
- https://github.com/mumoebius/LC-GitHub-Desktop
- https://github.com/KRieck/LibCarp_Exc
- https://github.com/tuwhai/LC-Github-Desktop
- https://github.com/AndrTor/LC-Github-Desktop
- https://github.com/mfaden/LC-Github-Desktop
- https://github.com/evamarik/LC-GitHub-Desktop
- https://github.com/martonvillanyi/LibrCarp-2
## [Git-GUI-Clients](https://git-scm.com/downloads/guis)
## [schoenere Version des Flipcharts](https://docs.google.com/presentation/d/1acfTeMfy8Tia8CDEh4mPHrdImQqZYd56zRGWftbq4cY/edit#slide=id.g3d30426b9f_0_0)
# Selbstlernressourcen
* Exercism.io: Aufgaben bearbeiten, automatisch Überprüfen und sich mit Mentor*innen darüber austauschen
* Study Groups und Hacky Hours, z.B.
* Köln: https://hackyhour.github.io/Cologne/
* [TIBHannover.GitHub.io/FAIR-studyGroup](https://tibhannover.github.io/FAIR-studyGroup/#portfolio)
* Einwahlmöglichkeit zu den Terminen (immer mittwochs 16 Uhr) einrichten? Wenn sich 3 Leute hier mit `+1` eintragen:
* Evamaria
*
- Git-Materialien: [GitHub-Desktop](https://tibhannover.github.io/git-desktop/), Git-Kommandozeile bei [Library](https://librarycarpentry.github.io/lc-git/)- (zusammenfassend) & [Software](https://swcarpentry.github.io/git-novice/)- (tiefergehend) -Carpentry, sowie [try.GitHub.io](http://try.github.io) fuer die GitHub-Online-Plattform
- [weitere Python-Beispiele von Konrad](https://github.com/konrad/Bits_and_pieces_for_the_carpentries_workshops/tree/master/python)
# Recherche bei Problemen
- "spezielle Fragen/Probleme" sind es doch nicht immer ;-)
- StackOverflow.com/questions/tagged/python
- oder genereller: StackExchange.com und die eigene Suche mit `[Schlagwort]` (Programmiersprache, Produkt, Dienst, etc.) ergänzen
# Follow-Up Webkonferenz
[Terminabstimmung (abgeschlossen)](https://terminplaner.dfn.de/foodle.php?id=w47dbzjrf4p0g01u)
Gemäß der Terminabstimmung findet die [Webkonferenz](https://webconf.vc.dfn.de/lc/) statt am 10. Januar 2019, 9-11 Uhr.
- Python: zusätzliche Module installieren
- packaging.Python.org/tutorials/installing-packages/
- PyPI.org ist vermutlich größte Quelle für nachinstallierbare Module/Pakete
- APIs Scopus
## Interessent/innen gerne hier eintragen, ggf. mit Projekt, das in den nächsten Wochen bearbeitet werden könnte
- Adelheid Heftberger: Normdaten für audiovisuelle Bestände aus dem Netz ziehen, z.B. über API aus Europeana, Filmportal, imdb etc.
- IMDB ginge wohl über [Python](https://pypi.org/search/?q=imdb&o=-created) und/oder [R](https://cran.r-project.org/web/packages/imdbapi/index.html)
- av.TIB.eu/about#lod-getmetadata gibt auch Daten heraus ;-)
- Evamaria: In Jupyter Notebooks veröffentliche Analyse zur Abdeckung der über Pubmed recherchierbaren Artikel durch Zugänge der eigenen Bibliothek durchführen. Python. Siehe: [Dissecting PubMed: which content is covered by the Library? and Open Access?](https://github.com/dis-unige/eahil2018)
- Sonja Nilson: zu einem Ortsnamen die dazugehörigen Daten aus Geonames ziehen, auf jeden Fall GeonamesID sowie Längen- und Breitengrad (für Kartendarstellung), GeoNames API: http://www.geonames.org/export/ Account bei Geonames existiert.
=> [Pythonbibliothek](https://github.com/symerio/pgeocode) für Geonames API ist vorhanden
=> Alternativ mit OpenRefine möglich
nilson: Danke! Ich hab es hiermit https://github.com/cmh2166/geonames-reconcile probiert. Bin bis hierher "Now enter the URL that the local service is running on" gekommen. Aber OpenRefine nimmt keine der drei URL. Fehlermeldung "Error contacting recon service: timeout "
mhennies: Da hat sich vermutlich der lokale reconcile-Server nicht starten lassen (fehlende Bibliotheken?).
Alternativ in OpenRefine neue Spalte mit URL basierend auf der Ortsspalte definieren:
"http://api.geonames.org/searchJSON?username=<accountname>&name="+escape(value,‘url’)
Und dann für geonameId, Breiten- und Längengrad die Werte jeweils in eine neue Spalte holen
value.parseJson().geonames[0].geonameId
value.parseJson().geonames[0].lat
value.parseJson().geonames[0].lng
Ein Problem könnten allerdings nicht eindeutige Ortsnamen sein. Hier wäre tatsächlich reconcile sinnvoll (nach der Installation der anfangs fehlenden Bibliotheken läuft der reconcile-Server bei mir).
Wenn GeonamesID nicht notwendig, auch über OpenStreetMap möglich (kein Account notwendig).
Stefan Bastian: Übersicht Open Access-Konditionen
Durch Konsortialteilnahmen erhalten wir Rabatte bis zu 100% für die Publikationskosten unserer Wissenschaftlerinnen und Wissenschaftler. Die Zahl der betroffenen Zeitschriften wir immer größer. Daher benötigen wir eine Übersicht. Mit OpenRefine lassen sich gut öffentliche Informationen über apis abfragen, die wir ebenfalls benötigen. Gut ist die SHERPA/Romeo api, die viele Informationen liefert, z. B. zum post-archiving. Die stehen im XML, das man mit grel:'http://www.sherpa.ac.uk/romeo/api29.php?issn='+value erhält. Beim Ausparsen zeigt er dann zwar an, was ich erreichen möchte (value.parseHtml().select('postarchiving')-> [ <postarchiving> can </postarchiving> ]), in die neu entstandene Spalte schreibt er es aber nicht rein. parseXml() macht das Gleiche. Kennt jemand das Problem? O.K. probieren hilft... "value.parseHtml().select("prearchiving")[0].htmlText()"" funktioniert.
# Feedbackrunde
- Bibliotheksbeispiele: https://github.com/hbunke/BibsOnGitHub/blob/master/list.md
-