Zeitplan, Installationshinweise etc.:
https://evamarik.github.io/2018-11-12-cologne/
Bitte laden Sie diesen Datensatz als Datei herunter (Firefox: Rechtsklick -> Ziel speichern unter): doaj-article-sample.csv
Oder fügen Sie folgende URL direkt in OpenRefine als Web Adress
ein:
https://github.com/LibraryCarpentry/lc-open-refine/raw/gh-pages/data/doaj-article-sample.csv
Adresse, um OpenRefine in einem Web-Browser zu öffnen: http://127.0.0.1:3333
Reguläre Ausdrücke: https://librarycarpentry.github.io/lc-data-intro/04-regular-expressions/index.html
Text-Filter: Hier können Regular Expressions genutzt werden. Weitere Infos dazu: https://librarycarpentry.github.io/lc-data-intro/04-regular-expressions/
Bitte finden Sie alle Publikationen in diesem Datensatz, die keine DOI haben.
Mehr Information zu den Clusterng-Algorithmen:
https://github.com/OpenRefine/OpenRefine/wiki/Clustering-In-Depth
GREL: General Refine Expression Language
https://github.com/OpenRefine/OpenRefine/wiki/General-Refine-Expression-Language
Zusätzliche Infos findet man hier: https://github.com/OpenRefine/OpenRefine/wiki/GREL-Date-Functions
Beispiel http://api.crossref.org/journals/1422-0067
Doku unter https://github.com/CrossRef/rest-api-doc
Beispiel XML-Daten (Quelle: Tate Gallery London):
https://app.box.com/s/3thxm10x6vhtfyien3fl42bbhgp0hd8g
https://de.wikipedia.org/wiki/Internationale_Standardbuchnummer
https://raw.githubusercontent.com/OpenAPC/openapc-de/master/data/fuberlin/APC_FU_Berlin_2015.csv
20min-Vorbereitung: Katrin Leinweber (2018) Wieso, weshalb, warum Versionskontrolle? Und wie? doi.org/10.5446/32224
+1
eintragen:
[Schlagwort]
(Programmiersprache, Produkt, Dienst, etc.) ergänzenTerminabstimmung (abgeschlossen)
Gemäß der Terminabstimmung findet die Webkonferenz statt am 10. Januar 2019, 9-11 Uhr.
Adelheid Heftberger: Normdaten für audiovisuelle Bestände aus dem Netz ziehen, z.B. über API aus Europeana, Filmportal, imdb etc.
Evamaria: In Jupyter Notebooks veröffentliche Analyse zur Abdeckung der über Pubmed recherchierbaren Artikel durch Zugänge der eigenen Bibliothek durchführen. Python. Siehe: Dissecting PubMed: which content is covered by the Library? and Open Access?
Sonja Nilson: zu einem Ortsnamen die dazugehörigen Daten aus Geonames ziehen, auf jeden Fall GeonamesID sowie Längen- und Breitengrad (für Kartendarstellung), GeoNames API: http://www.geonames.org/export/ Account bei Geonames existiert.
=> Pythonbibliothek für Geonames API ist vorhanden
=> Alternativ mit OpenRefine möglich
nilson: Danke! Ich hab es hiermit https://github.com/cmh2166/geonames-reconcile probiert. Bin bis hierher "Now enter the URL that the local service is running on" gekommen. Aber OpenRefine nimmt keine der drei URL. Fehlermeldung "Error contacting recon service: timeout "
mhennies: Da hat sich vermutlich der lokale reconcile-Server nicht starten lassen (fehlende Bibliotheken?).
Alternativ in OpenRefine neue Spalte mit URL basierend auf der Ortsspalte definieren:
"http://api.geonames.org/searchJSON?username=<accountname>&name="+escape(value,‘url’)
Und dann für geonameId, Breiten- und Längengrad die Werte jeweils in eine neue Spalte holen
value.parseJson().geonames[0].geonameId
value.parseJson().geonames[0].lat
value.parseJson().geonames[0].lng
Ein Problem könnten allerdings nicht eindeutige Ortsnamen sein. Hier wäre tatsächlich reconcile sinnvoll (nach der Installation der anfangs fehlenden Bibliotheken läuft der reconcile-Server bei mir).
Wenn GeonamesID nicht notwendig, auch über OpenStreetMap möglich (kein Account notwendig).
Stefan Bastian: Übersicht Open Access-Konditionen
Durch Konsortialteilnahmen erhalten wir Rabatte bis zu 100% für die Publikationskosten unserer Wissenschaftlerinnen und Wissenschaftler. Die Zahl der betroffenen Zeitschriften wir immer größer. Daher benötigen wir eine Übersicht. Mit OpenRefine lassen sich gut öffentliche Informationen über apis abfragen, die wir ebenfalls benötigen. Gut ist die SHERPA/Romeo api, die viele Informationen liefert, z. B. zum post-archiving. Die stehen im XML, das man mit grel:'http://www.sherpa.ac.uk/romeo/api29.php?issn='+value erhält. Beim Ausparsen zeigt er dann zwar an, was ich erreichen möchte (value.parseHtml().select('postarchiving')-> [ <postarchiving> can </postarchiving> ]), in die neu entstandene Spalte schreibt er es aber nicht rein. parseXml() macht das Gleiche. Kennt jemand das Problem? O.K. probieren hilft… "value.parseHtml().select("prearchiving")[0].htmlText()"" funktioniert.