Ein Stück Qualität im Netz weniger

Dass die Ära der Print-Lexika dem Ende entgegen geht, ist ja mittlerweile als Binsenweisheit zu betrachten. Nun habe ich bei Federwerk den Hinweis auf diese Mitteilung entdeckt:

Das Lexikonportal Meyers Lexikon online wird zum 23. März 2009 abgeschaltet. Leider ist es uns nicht länger möglich, das Portal in seiner jetzigen Form zu betreiben.

Genauere Angaben, warum man nicht mehr in der Lage ist, das Angebot in dieser Form zu betreiben, werden nicht gemacht.

Federwerk vermutet, dass dies eine der Folgen ist, die durch die Trennung des Verlages Bibliographisches Institut & F. A. Brockhaus AG vom Brockhaus entsteht.

Es heißt bei Federwerk:

nun wird Meyers online eingestellt, das zeitweilig als Test für einen geplanten Online-Brockhaus galt

Damit verschwindet ein qualitativ gutes und redaktionell gestaltetes Angebot aus dem Netz, ohne dass der Nutzer dafür wirklich Gründe genannt bekommt.

Quellen:
Meyers Lexikon online wird abgeschaltet via Meyers Online Blog
Kümmel, Marion: Meyers Lexikon online abgeschaltet Federwerk

Teilen

Ähnliche Beiträge

Eine Bibliothek ohne Katalog

Die Bibliothek in Niederkassel-Ranzel erinnert an längst vergangener Zeiten. Eine Zeit als der Leser noch, ob er wollte oder nicht, an die Theke treten musste und die für ihn geeignete Literatur ausgehändigt bekam. Eine Zeit als das oberste Ziel der Bibliothek noch Erziehung hieß und man dem Leser nicht zutraute sich selber die für ihn geeignete Literatur zu suchen. Die Zeit der Thekenbibliothek, die so weit weg scheint. Doch es gibt sie noch!

Wer in Niederkassel-Ranzel auf der Suche nach einem bestimmten Buch ist oder dieses bestellen will, muss ob er will oder nicht in die Bibliothek. Einen OPAC, wie er inzwischen fast überall üblich ist, gibt es nicht und selbst eine Homepage der Bibliothek sucht man im Netz vergeblich. Diese Tatsache mutet vielleicht noch nicht all zu schlimm an, doch der nächste Schock erwartet den Nutzer in der Bibliothek selbst. Einen Zettelkatalog gibt es ebenfalls nicht. Es bleibt nur der Weg an die Theke, wo die Bibliothekarin anhand einer Liste nachschaut, ob das Buch da ist.

Der Vorteil, den diese Form der Auskunft bietet, ist sicher der direkte Kontakt zum Nutzer. Doch langfristig wird man mit dieser Art der Information nicht konkurrenzfähig bleiben können und den Leser eher abschrecken als binden. Das Argument der Bibliothekarin, dass EDV teuer ist, mag zutreffen, aber ist für den Nutzer nicht ganz nachvollziehbar, zumal dieser auch noch doppelt zur Kasse gebeten wird, in Form einer Jahresgebühr und Gebühren für jedes entliehene Buch.

Auch das Argument, dass die Nutzer gar nicht erst kommen würden, wenn sie feststellen, dass das Buch nicht da ist, kann ich nicht ganz nach vollziehen. Verärgert man so nicht die Nutzer auf Dauer, weil sie ganz umsonst zur Bibliothek kommen? Das wirft für mich noch die Frage auf: Wieso werden die Öffentlichen Bibliotheken in anderen Orten trotz OPAC genutzt?

Um diese Frage zu beantworten, wäre es interessant sich mal exemplarisch einige Öffentliche Bibliotheken heraus zu suchen und deren Benutzerstatistiken vor und nach der Einführung des OPACs zu analysieren.

Aufmerksam geworden durch:
Plieninger, Jürgen : Kein Online-Katalog – und schon müssen die Leute kommen! via Netbib.de

Teilen

Ähnliche Beiträge

Der Börsenverein will es einfach

Kann der Börsenverein und Libreka mit ihrer neuen E-Book-Offensive eigentlich beim Kunden punkten? Sind die neuen Geschäftsmodelle für den Leser geeignet? Börsenblatt-Redakteur Michael Roesler-Graichen beleuchtet den Start des E-Books in Deutschland.

Umständliche Downloadprozeduren könnten jedenfalls die Kunden abschrecken.

Schon dieser Satz an sich ist ein Allgemeinplatz für mehr oder weniger geübte Internetnutzer. Das Internet verlangt einfache und schnelle Strukturen. Die Breitbandangebote machen aus uns mehr denn je ungeduldige Kunden. Sekundenschnell soll es gehen und mit wenigen Mausklicks. Das “könnte” verkennt die Situation. “Umständliche Downloadprozeduren schrecken jedenfalls Kunden ab”, müsste die Erkenntnis sein und diese hätte man mit ein wenig Internet- und Menschenkenntnis im Vorfeld wissen können oder sogar müssen.

Man kann sich mit technischen Innovationen schwer tun und auch scheitern, aber so neu ist ja diese Innovation nicht mehr. In Amerika zeigt ein Händler wie Amazon, wie man es gut macht. Auf ein Scheitern zu setzen, heißt auch, dass man ganz auf dieses Projekt hätte verzichten sollen oder sich zumindest hätte Zeit lassen sollen.

Die Frage, wie schnell sich E-Books dank der neuen E-Book-Lesegeräte verbreiten, hängt von verschiedenen Faktoren ab, die hier im Blog bereits mehrfach diskutiert worden sind (z.B. hier, hier und hier). Sicherlich sind in dieser zweiten Offensive die Chancen höher, aber gerade Unklarheiten in Bezug auf Formate und Digitalem Rechtemanagements und auch das verschwindend geringe Angebot deutscher E-Books-Titel sind deutliche Hindernisse für den Erfolg des E-Books. Sicherlich kann man hier auf den Erfolg des Kindle-Reader von Amazon schauen, der aber doch mehr als eine viertel Million Titel als Rückenstärkung hat. Hier hört ein Vergleich der Märkte auf. Nur auf die positive Resonanz des Sony Readers zu hoffen, ist gefährlich. Wenn der leere Reader nicht mit Büchern gefüllt werden kann, weil sie zu teuer sind, sich schlecht herunterladen und auf den Reader spielen lassen, lässt so einem Luftgebilde schnell die heiße Luft entweichen. Optimismus ist nötig, aber er muss auch gut unterfüttert werden.

Kopfzerbrechen werden in den nächsten Monaten das Rechtemanagement und die Titeldistribution machen: Beide Prozesse verhindern wegen ihrer Umständlichkeit, dass das Geschäft mit E-Books im großen Maßstab in Gang kommen kann.

Auf eine iTunes-Lösung (=Kindle-Lösung) zu hoffen, ist keine Lösung des Problems, um auf Dauer den E-Book-Hype am Laufen zu halten.

Bleibt es bei den angebotenen Geschäftsmodellen, wird die Versuchung, sich illegal zu bedienen, übermächtig werden.

Eine offene Lösung mit einem sogenannten »weichem« Kopierschutz via digitalem Wasserzeichen oder Fingerprints ist hier sicherlich eine vielversprechendere Lösung, die mit guten Preisen, einer einfachen und kompfortablen Bedienung der Downloadportale und E-Book-Reader-Software untermauert werden muss. Auch sollte man die diversen weitergehenden Nutzungsfunktionalitäten gedruckter Bücher nicht aus dem Blick verlieren. Nicht alle lesen Romane.

Quelle:
Roesler-Graichen, Michael: Der Kunde will einfache Prozesse via Börsenblatt.net

Teilen

Ähnliche Beiträge

Das Dilemma des Autor-Google-Verhältnisses

Die FAZ schießt gegen Google. Malerisch beschreibt man das Aufbegehren gegen Google als “Rückzugsgefecht versprengter Truppen gegen eine Übermacht”. Es fehlt bei der Einleitung nur das Wort “Größenwahn” in Bezug auf Googles Politik des Auslotens normativer Grenzen, wenn es darum geht, das Weltwissen verfügbar zu machen.

Dabei geht es nicht nur ums große Geld, sondern auch selten mit ganz legalen Mitteln zu – wie bei großen Eroberungszügen nicht anders zu erwarten.

Alles begann damit, dass Google sich vor erst fünf Jahren an das Riesenprojekt wagte, die Bestände amerikanischer Bibliotheken zu scannen. Neben Public-Domain-Werken, nicht mehr lieferbaren Büchern sind dort aber auch noch urheberrechtlich geschützte und lieferbare Bücher zu finden. Einen Großteil der Masse der Google-Scans betreffen die Books-out-of-Print. Europäische Bibliothekspartner lassen nur gemeinfreie Bücher digitalisieren.

Das dreijährige Mammutverfahren kostete 45 Mio Dollar und häufte eine Million Akten- und Gutachtenseiten an. Oktober letzten Jahres dann wurde der Vergleich “Google Book Settlement” eingereicht und wird seit dem auch durch eine große Anzeigenkampagne und im Internet in 36 Sprachen bekannt gemacht. Damit sollen die Autoren über die Modalitäten des Settlements aufgeklärt werden.

Der Ton wurde leider nicht sachlicher, nachdem der erste Frust niedergeschrieben war. Sicherlich muss man bemängeln, dass die Übersetzung wohl mit Hilfe von Googles hauseigener Übersetzungsmaschine durchgeführt worden war und keine deutschen Urheberrechtler herangezogen worden.

So wird schon auf der ersten Seite aus einem „Verleger“ ein „Herausgeber“ und aus einem „Autor“ ein „Unterklasse-Autor“.

Damit wird dieser Vertrag rechtlich praktisch unlesbar.

Ein zweites Leider mag vielleicht auch gelten. Um herauszufinden, ob die eigenen Werke digitalisiert wurden, hat auch Schwierigkeiten. Metadatenquelle war der Worldcat, der mit 270 Millionen Büchern aus allen Ländern doch recht unübersichtlich ist.

Der FAZ-Autor macht sich auch hier unreflektiert zum Sprachrohr eines (zumindest vom Sprachstil so wirkenden) aufgebrachten Christian Sprang,seines Zeichens Justitiar des Börsenvereins des Deutschen Buchhandels.

Hinzu kommt: Wer das Settlement-Formular ausfülle, gebe schon wieder jede Menge Metadaten von sich preis.

Die Opt-out-Klausel, die es Autoren und Verlagen ermöglicht, Google mitzuteilen, dass sie aus dem Vergleich aussteigen wollen. Dies ist für den Riesen nicht verpflichtend, dass er die Bücher tatsächlich aus dem Netz nehmen muss. Erst mit einer Privatklage in den Vereinigten Staaten kann der Autor/Verlag nachweisen, dass Google amerikanisches Copyright gebrochen hat. Kleine Verlagee und einzelne Autoren können sich dies finanziell nicht leisten. Bis zum Ende der „notification period“ am 5. Mai 2009 müssen sich Autoren bzw. Verlage gemeldet haben.

Die Frage, die sich stellt, ist natürlich, welche Vorteile Autoren davon hätten, dass sie sich dieser größeren Sichtbarkeit entziehen. Muss man auf seinem Recht bestehen, nur um Recht zu behalten? Fast trotzig wirkt hier die Reaktion des deutschen Jusitziars. Welche Nachteile befürchtet man, dass man allen Autoren und Verlagen pauschal dazu rät, Google zu verlassen? Wo gibt es offizielle, sachliche Entscheidungshilfen, die ein Pro & Contra einer solchen Entscheidung klar darstellen oder abwägen?

Am 11. Juni wird das Gerichtin New York dem Vergleich mit hoher Wahrscheinlichkeit zustimmen, da sich hier in den Augen der Richter die Prozessparteien selbständig geeinigt haben.

Sollte trotz von mehreren Seiten angekündigter Einsprüche der Vergleich am 11. Juni bestätigt werden, wird der Tag als Wende in die Geschichte des Urheberrechts eingehen.

Formal gilt dieser Vergeleich nur in den USA, dennoch befürchtet der Börsenverein, dass jetzt das Urheberrecht leichter umgehbar wird. Der Autor sieht dadurch die bisherige Rechtsstaatlichkeit für Verleger und Autoren bedroht.

Google erhält durch diesen Vergleich eine andere Rolle. Die Regelungen des Settlement mit der Authors Guild sehen eine Garantiesumme von 60 Dollar pro unauthorisiert digitalisierten Buch vor. Diese Autoren können mit entscheiden, ob und in welchem Umfang Google das Werk im Zusammenhang mit Werbung nutzen darf. An die Autoren wird außerdem pauschalisiert dreiundsechzig Prozent der Werbeeinnahmen Googles ausgeschüttet.

So wird Google zum Händler und nach 2011 zum Verleger. Denn das gar nicht unrealistische Kalkül der Firma sieht vor, dass höchstens einer von zehn Copyright-Inhabern seine Ansprüche geltend machen wird. Damit fallen die Rechte im Lauf der nächsten Jahre an Google.

Mir ist Unklar, in welcher Form Google hier zum Verleger wird. Wikipedia definiert Verleger:

Früher bezeichnete man mit Verleger den Auftraggeber im Verlagssystem. Heute bezeichnet der Begriff einen Unternehmer, der einen Verlag für Bücher, Noten, Zeitschriften oder Zeitungen betreibt oder leitet. Die Branchenbezeichnung leitet sich von Vorlage ab. Der Verleger geht mit Druck- und Werbungskosten in Vorlage.

In diesem Fall wird Google nicht erst 2011 zum verleger, sondern ist es bereits seit der Verlag Scans erster Bücher der Public Domain angeboten hat.

Die Regelung des Vergleichs sichert Google, dass sollten alle sieben Millionen Rechteinhaber die 60 Dollar pro Buch verlangen, maximal 420 Millionen zahlen muss. Auch diese Rechnung kann ich nicht ganz nachvollziehen. Es sind etwa 7 Millionen Bücher, die digitalisiert worden, aber etwa 500.000 fallen davon unter die Public Domain. Die muss man wohl abziehen. Google scheint nicht mit einer großen Anzahl von Anträgen zu rechnen, denn man stellt 45 Millionen Dollar, d.h. knapp 11 % der Summe für die Auszahlung bereit.

Schon jetzt darf, die Zustimmung des Gerichts voraussetzend, Google alle Bücher einscannen, die bis zum 5. Januar 2009 erschienen sind. „Das ist das eigentlich Teuflische an diesem Plan“, erklärt Sprang.

Kolidieren hier die Wünsche des größten Menschheitsprojekts mit den Vorstellungen des geistigen Eigentums? Sehr schön, jetzt kommen wir zu den tapferen Männlein, die sich gegen die Übermacht stämmen. Auf dieses Bild habe ich direkt seit Beginn des Feuilletons gewartet.

Der Börsenverein hat sich mit der Verwertungsgesellschaft Wort und mit dem Schriftstellerverband verbündet, die sich normalerweise um das Eintreiben von Kopier- und anderen Vervielfältigungserlösen für Autoren kümmert. Die VG Wort soll nun ihren Wahrnehmungsvertrag gegenüber 380.000 Vertragsnehmern um die elektronischen Rechte erweitern. Per Rechtsgutachten ist diese Vorgehensweise abgesichert, es wäre ein Pfund, mit dem sich wenigstens ein wenig wuchern ließe.

Und jetzt passiert was, wo ich stutzte. Bis eben war Google der Buh-Mann und auf einmal träumen nicht alle Autoren davon, Google zu enteignen? Das ist eine sehr unerwartete Wendung am Ende des Beitrages.

Sicherlich muss man Googles Tätigkeiten besser kanalisieren und den Kopf gottergeben in den Sand zu stecken oder einfach das, was Google macht, unreflektiert zu verteufeln.

So gelähmt wirkt die Branche angesichts der Chuzpe, dass viele klagen, der Kampf sei schon verloren – bevor sie ihn aufgenommen haben. Mit den Urheberrechten gäbe man, so der Schriftsteller Thomas Hettche, auf, wofür man Jahrhunderte gekämpft habe.

Etwas ungläubig las ich dann, dass der Digitalisierungskritikier und Schriftsteller Thomas Hettche sich mit einer für seine Arbeit doch so wichtigen Vereinbarung, die seit Monaten durch die Presse geistert, noch nicht auseinander gesetzt hat. Damit reiht er sich wohl in die Mehrheit der Autoren ein.

Das zeigt einmal mehr das man “dagegen” ist, ohne das Problem oder die Möglichkeiten zu beleuchten. Autoren, die sich nämlich auch mit den Chancen auseinander setzen, erkennen, dass sie als passive Nutzer nämlich sogar selbst von Google Books profitieren. Das zeigt aber auch das Dilemma in denen Autoren stecken. Einerseits haben sie nicht wirklich Einfluss auf Google, andererseits gewinnen Sie auch durch die bessere Sichtbarkeit ihrer Bücher. Ich persönlich habe schon mehrfach Fachbücher erworben, die ich in der Bibliothek nicht schnell beschaffen konnte und deren Relevanz ich über Google evaluieren konnte. Also, das ist dann wohl Google Books als die perfekte Werbeplattform.

Glücklich ist die Lösung für beide Seiten nicht, da man mit mehr Einigungsbereitschaft von beiden Seiten im vorfeld eine einvernehmlichere Lösung hätte erzielen können.

Unter den Büchern, die Google digitalisieren will, befinden sich nach Angaben es Börsenvereins allein 50.000 deutschsprachige Titel von Random House Deutschland, dem größten deutschen Publikumsverlag. Random House Vorstandsvorsitzender Joerg Pfuhl ist nicht ganz so ablehnend:

„Grundsätzlich ist der Google-Vergleich eine gute Sache. Er könnte Basis für neue Geschäftsideen sein. Und immerhin hat Google die Urheberrechte nun anerkannt.“ Aber auch er räumt ein, Google habe „viel Misstrauen gesät. Die Vorgehensweise ist bekannt: Fakten schaffen, um dann unter Druck Lösungen zu erzwingen.“

Google muss zeigen, dass es auf der finanziellen Seite wenigstens ein verlässlicher Partner ist und das Vertrauen rechtfertigt, dass Autoren in das Unternehmen einbringen.

Eine letzte Schwarzmalerei kann sich der Autor am Ende des Beitrages nicht verkneifen. Er sieht ein Grundsatzproblem, dass dieser Prozess akut werden lässt.

Werden künftig Werke der Wissenschaft, der Literatur geschrieben, wenn sie sogleich Gemeingut im Internet sind? Was, wenn die neuen Geschäftsmodelle es Urhebern nicht mehr ermöglichen, von dieser Arbeit zu leben: Verschwinden dann ganze Berufszweige und machen den Selbstausstellern Platz?

Da will ich mal ein paar genauso grundsätzliche Gegenfragen stellen. Schaffen wir den Zugang zu Wissen für eine Elite, wenn der Zugang zu Informationen immer kostenpflichtig ist? Geht nicht zu viel Wissen verloren, weil es nicht zur rechten Zeit auffindbar ist? Ist der Schaden für die Allgemeinheit nicht höher, wenn wegen fehlendem Wissenszugang die Forschung erlahmt oder es zu Doppel- und Dreifachentwicklungen kommt (mal abgesehen, dass wir damit zur Zeit sowieso schon zu kämpfen haben)?
Natürlich muss man Google im Auge behalten und verhindern, dass aus Google ein neues Elsevir wird. Google darf kein Monopolist bleiben. Und man mag meinen, die Industrie und damit auch die Content-Industrie, wüßte, dass Konkurrenz das Geschäft belebt Ich weiß, das ist ein abgedroschener Allgemeinplatz, doch die Bestrebungen mit Libreka wirken einfach nur ungeschickt. Da klingt es richtiggehend getroffen, was der Autor zum Schluss schreibt:

Früher hätte man nach der Politik gerufen und ihr erklärt, dass Wissen systemwichtig sei. Doch die Politik scheint sich für all das nicht zu interessieren.

Quelle:
Hintermeier, Hannes: Das Teuflische an diesem Plan via FAZ.Net

Teilen

Ähnliche Beiträge

Google umwirbt Sony

Google hat sich ja bis jetzt im E-Book-Reader-Markt noch gar nicht zu Wort gemeldet. Doch jetzt meldet sich der Suchmaschinengigant und umwirbt Sony mit einem Geschenk von 500.000 E-Books. Damit kann Sony darauf hoffen, dass seine Reader eine wirkliche Konkurrenz zum Kindle werden. In den USA bietet Amazon für seinen Reader derzeit 600.000 Bücher zum Download an.

Sony kann da mit 500.000 Büchern gut mithalten. Für Europa heißt dies, dass man auch hier noch sehr viele Bücher anbieten kann.

Sony kündigt dieses riesige Geschenk als

einen “logischen Schritt [an], um mehr Menschen mehr Bücher zu bringen, um Information überall und auf jedem Gerät verfügbar zu machen”. Die offizielle Ankündigung von Google steht noch aus – für Donnerstagnachmittag ist eine Telefonkonferenz geplant.

Google unterstützt eine offene Plattform für den Zugang und die Darstellung von Büchern. Man möchte sich deshalb nicht auf einen Technologie-Anbieter festlegen. Ziel ist es, den Menschen überall auf der Erde die Welt der Bücher zugänglich zu machen. Viele der Bücher bei Google sind mit einer speziellen Software in durchsuchbare Textdateien überführt worden. Die lassen sich auch mit dem Google-Betriebssystem Android auf dem Handy lesen. Bei diesem Anspruch ist es natürlich mehr als folgerichtig, die Dateien nun auch auf anderen Geräten zur Verfügung zu stellen.

Associated Press gibt an, dass die Bücher, die in einem passenden E-Book-Format angeboten warden, aus der Zeit vor 1923 stammen. Hier kann Google davon ausgehen, dass diese Bücher in der Public Domain liegen.

Die meisten Bücher bei Google Books liegen als PDF vor und werden jetzt von Google im Epub-Format zur Verfügung gestellt. Dadurch lassen sie sich auf dem Sony Reader besser darstellen. Nachteilig für das Sony-Gerät gegenüber dem Kindle erweist sich die fehlende Drahtlosverbindung, so dass man immer wieder auf den Computer oder ein anderes Download-Gerät angewiesen ist.

Libreka, die deutsche E-Book-Plattform krankt ja nicht nur an einer unmöglichen Usability sondern auch an einer zu geringen Anzahl von herunterladbaren Büchern im PDF-Format. Bücher im Epub-Format lassen sich noch auf sich warten. Bei gemeinfreien E-Books bietet sich das Projekt Gutenberg an.

Für das Epub-Format ist die Allianz von Google und Sony ein Vorteil. Damit könnte sich ein offener Standard durchsetzen. Dies wäre ein Nachteil für Amazons Kindle, dessen proprietäres Format nicht von anderen Lesegeräten dargestellt werden kann. Amazon isoliert sich derzeit, zumal Amazon anderen Anbietern verbietet, Bücher in diesem Format zu veröffentlichen.

Quellen:
E-Books: Sony verbündet sich mit Google gegen Amazon via heise online
Google schenkt Sony 500.000 Bücher, Spiegel online

Teilen

Ähnliche Beiträge

ePUSH – Möglichkeit einer neuen Lehr- und Lernkultur

Nein, ich werde jetzt nicht erst noch auf das Lebenslange Lernen eingehen. Ich denke, dass ist hinlänglich thematiisiert. Doch wie kann lebenslanges Lernen unterstützt werden?
Nun, zur Erprobung neuer Einsatzmöglichkeiten aktueller Informations- und Kommunikationstechnologien bieten sich Orte an, an denen sowieso bereits gelernt wird. Durch das Hochschulentwicklungsprojekt ePUSH sollen diese Technologien gebündelt und kommuniziert werden, dass sie bei Studierenden und Lehrenden bald zu einem selbstverständlichen Teil des Lernen und Lehrens werden.

Das Projekt ePUSH läuft bereits seit Oktober 2007 und geht noch bis September 2009 und legt Schwerpunkte auf innovative Unterrichtsformen und CommunityBuilding durch Schaffung passender Infrastrukturen.

Das Projekt will entsprechende ICT-Entwicklungen für den Bildungsbereich aktiv mitgestalten und kritisch begleiten. Zu diesem Zweck setzt man auf fünf Einzelmaßnahmen – eCommunityBuilding, eInfrastruktur, eModul-Prüfung, eSupport Schlüsselkompetenzen und eQualifizierung.

ePUSH soll innerhalb von zwei Jahren Strukturen der Hamburger Fakultäten Erziehungswissenschaft, Psychologie und Bewegungswissenschaft nicht nur zusammenführen, sondern das neue System entwickeln und nachhaltig etablieren. In einem konzertierten Verfahren soll Vorhandenes und Auffindbares gesammelt, unterstützt und aufeinander abgestimmt bzw. im Bedarfsfall auch ergänzt werden. Das Projekt ist von vornherein so ausgelegt, dass nachhaltige Strukturen geschaffen werden, die Angebote und Services bereitstellt, die dann wiederum in den Habitus einer verinnerlichten neuen Lehr- und Lernkultur münden sollen.

ePUSH hat eine nachhaltige Einbettung von ICT in die Prozesse von Lehren und Lernen an der Fakultät IV zum Ziel. […] ePUSH umfasst alle Handlungsebenen von der Organisation von Lerninhalten, -formen und Lerngemeinschaften bis zur organisationalen Infrastruktur. Das Projekt soll dem effektiven Anschub der strategischen Ziele des ICT-Gesamtkonzepts der Fakultät IV dienen.

Durch den Aufbau vorn Strukturen und Modellen, die nicht fachgebunden sind, soll eine Übertragbarkeit des Systems möglich sein. Man möchte das bei ePUSH entwickelte Modell in andere Fakultäten oder auf eine höhere Organistionsebene der Uni übertragen.

Ebenso wirkt es in Bereiche der direkten Berufsvorbereitung und Weiterbildung hinein: hier zunächst speziell in die zweite und dritte Phase der Lehrerbildung.

Es gibt die fünf Ebenen CommunityBuilding, eLearning, Forschung, InformationsManagment und Infrastruktur, die jetzt als die strategisch entscheidenden Themenfelder in eCommunityBuilding, eSupport Schlüsselkompetenz, eModul-Prüfung, eInfrastruktur, eQualifizierung und ePUSH Koordination mit unterschiedlicher Gewichtung gebündelt werden.

Quelle:
ePush der Universität Hamburg

Teilen

Ähnliche Beiträge

Bücher für die ganz Kleinen

In dem Ort Heiligengraben in Brandenburg versucht man das Interesse der Kleinen für das Buch besonders früh zu fördern. Der dorfeigene Kindergarten „Haus der kleinen Strolche“ besitzt eine eigene kleine Bibliothek mit über 200 Medien. Diese Medien konnten nun endlich in einem eigen Raum unter gebracht werden, dort sollen sie in Zukunft dem Alter entsprechend für die Kinder verfügbar und zugänglich sein.

Besonders schön fand ich den Gedanken, dass man gemeinsam mit den Kindern die Antworten auf ihre Fragen sucht. So fördert man nicht nur ihre Freude am Buch, sondern auch ihre Recherchekompetenz. Diese Idee sollte in viel mehr Kindergärten umgesetzt werden, denn in diesem Alter sind die Kleinen besonders neugierig. Diese natürliche Neugier sollte man nutzen, um ihnen zu zeigen, dass es durch aus Spaß machen kann nach der Antwort zu suchen und dabei vielleicht noch andere spannende Sachen zu entdecken.

Aufmerksam geworden durch:
Lohre, Sarah: Frühe Leseförderung via Infobib.de

Teilen

Ähnliche Beiträge

Österreichs alte Websites

Zwanzig Jahre WWW, in dem zunehmend unsere Kultur, unser Wissen und unsere Welt abgebildet wird. Es ist verteilt auf zig Milliarden Webseiten, wobei ich es erstauntlich finde, dass die durchschnittliche Lebenszeit einer Seite zwischen 44 und 75 Tagen sein soll. Oder ist sie danach einfach nicht mehr auffindbar.

Webseiten werden seit 1996 duch das gemeinnützige Projekt Internet Archive :engl: in San Francisco gesammelt. Man versucht dort diese digitalen Informationen langfristig zu archivieren, damit sie auch einer künftigen Online-Generation zur Verfügung stehen. Inzwischen sind dort über 85 Milliarden Webseiten erfasst.

Damit auch die “digitalen Schätze” der Alpenrepublik künftig nicht verlorengehen, kümmert sich ab heuer darum der heimische Sammelhort alles gedruckten Wissens: die Österreichische Nationalbibliothek (ÖNB).

Die ÖNB wird das “österreichische” World Wide Web archivieren, d.h. die derzeit rund 800.000 Websites mit einer .at -Endung. Außerdem gehören zum Sammelauftrag auch Adressen mit Endungen wie .eu , .org oder .net , wenn sie einen eindeutigen Österreich-Bezug haben.

Es sollen nicht nur offizielle Websites sondern auch private Seiten wie Blogs oder Online-Fotoalben erfasst werden.

“Wir können nicht wissen, was unsere Nachfolger einmal interessieren wird”, sagt die Leiterin der Abteilung “Digitale Bibliothek” in der ÖNB, Bettina Kann. Auch ein Urlaubsbild von Bibione aus dem Jahr 2009 könne etwa eines Tages Aufschluss über den Tourismus des Ortes geben.

Man hat sich hier für eine Crawler entschieden, der automatisiert Daten sammeln soll. Der erste Lauf soll im Herbst stattfinden. Unbekannt ist das Datenvolumen, das entsprechende Probläufe (2008 zur Fußball-Europameisterschaft und bei der Nationalratswahl) brachten keine signifikanten Maßstäbe. Das Datenvolumen soll nach 5 Jharen etwa 80 Terabyte umfassen. Speicherort der Daten ist dabei nicht die Nationalbibliothek sondern das Bundesrechnungszentrum. Die Kosten werden auf etwa 4 Millionen Euro jährlich geschätzt.

Die Öffentlichkeit soll ab Ende des Jahres auf das Archiv zugreifen. Allerdings sol dies nur an Terminals der ÖNB u. anderer berechtigter Bibliotheken möglich sein.

Quelle:
Wo Österreichs alte Webseiten weiterleben in Der Standard.at, 14.03.2009, S. 22

Teilen

Ähnliche Beiträge
1 2 3 4 6