Wie zitierfähig ist Google Books?

Hm, die Frage dachte ich, stellt sich nicht. Allerdings tauchte sie bei Suchanfragen ans Blog immer wieder auf. Daher soll es hier eine Antwort geben.

Google Books hat zum jetzigen Zeitpunkt etwa sieben Millionen Bücher im Index, die per Volltextsuche durchforscht werden können. Volltextsuche heißt, dass alle Seiten als Volltext indiziert worden sind. Es heißt jedoch nicht, dass man alle Bücher auch im Volltext angezeigt bekommt.

Bibliothek (Google Library) Bibliothek (Google Library) Verlag (Google Print)
Urheberrechtsschutz abgelaufen urheberrechtlich geschützt urheberrechtlich geschützt
Anzeige im Volltext keine Anzeige/ Anzeige in Auszügen Anzeige in Auszügen

Google Books ist rein theoretisch schon daher keine Zitiergrundlage, da von vielen Büchern nur Auszüge vorliegen oder überhaupt keine Vorschau möglich ist. Sie erhalten allenfalls eine Bestätigung, dass sich das Zitat auf einer bestimmten Seite, in einer bestimmen Randnote befindet. Das Zitat selbst ist damit noch nicht überprüft!

Google Books bildet zwar die Orignale ab und man könnte dann daher davon ausgehen, dass der gefundene Ausschnitt in dem angegebenen Buch auch wirklich auf Seite xy steht. Das mag sein, aber zum wissenschaftlichen Arbeiten gehört auch, das Umfeld des Zitates zu evaluieren. Denn wenn der Autor dieses Zitates hier gerade etwas Gegenteiliges zu seiner eigentlichen Meinung darlegen wollte, zitiert man zwar vermutlich formal korrekt, inhaltlich jedoch verfälschend. Zitate dürfen in diesem Sinne nicht aus dem inhaltlichen Kontext herausgelöst werden.

Sollte das Buch im Volltext vorliegen – das tut es meist, wenn die Schutzfrist der Urheberrechte abgelaufen ist und das Werk gemeinfrei ist. Hier kann man das Buch in einer vollständigen, zitierfähigen Form einsehen. In diesem Fall zitieren Sie das Buch und können dann als nächstes optional angeben, dass Sie das Buch elektronisch bei Google Books eingesehen haben. Bedenken Sie jedoch, dass die Bücher meistens sehr alt sind und sich eher für eine historische Arbeit oder einen historischen Überblick eignen.

Die feinere Form ist es, sich das Buch, auf das man über Google Books aufmerksam geworden ist und bei dem man Dank der Ausschnitte und Angaben feststellen konnte, dass es für einen wichtig ist, über die Bibliothek zu besorgen, z.B. als Leihe vor Ort oder aus den Verbundbibliotheken, bzw. per Fernleihe.

Google Books ist wie eine Datenbank ein Nachweisinstrument, das auch z.T. die Volltexte in einer einheitlichen Umgebung zur Verfügung stellt. Sie würden an Stelle einer anderen Datenbank auch nicht diese Zitieren sondern die entsprechende Quelle.

Daher zitiert man nicht Google Books sondern die Originalquelle. Wenn Sie einen Link zu Google Books angeben, legen Sie offen, welche Version des Buches genau angeschaut wurde und Sie erleichtern damit anderen Nutzern den Zugang zum Buch.

Eine Zitierfähigkeit von Google Books ist zu verneinen. Auch einen Einstieg ins Thema erhält man mit einer Recherche in Google Books nur bedingt. In Google Books ist derzeit eher eine zusätzliche Recherchemöglichkeit zu sehen, die zu weiterer Literatur führt.

Google feierte vor wenigen Tagen eine Vergleich zwischen dem Unternehmen und den Verlagen. Stolz berichtet Google, dass sie nun zukünftig Volltexte von vergriffenen Büchern anbieten dürfen.

Im Rahmen dieser Vereinbarung können wir nun diese vergriffenen Bücher zur Vorschau, zum Lesen und zum Kauf in den USA zur Verfügung stellen. Die permanente Verfügbarkeit vergriffener Bücher sicherzustellen war einer der Hauptgründe, weshalb wir dieses Projekt ins Leben gerufen haben.1

Wichtiger Punkt des Vergleiches ist:

Der vorgeschlagene Vergleich autorisiert Google ebenfalls dazu, öffentlichen Bibliotheken sowie Bibliotheken in Einrichtungen für höhere Bildung einen kostenlosen Zugang zu der Bücherdatenbank zu gewähren.2

Das gilt allerdings nur für die USA. Eine Entscheidung für Deutschland / Europa muss noch abgewartet werden.

Teilen
  1. Die Zukunft der Google Buchsuche []
  2. Was bietet der Vergleich an? []

Ähnliche Beiträge

Google-like und doch bibliothekarisch

Gestern hatte ich ja bereits einen recht langen Post zu Google veröffentlicht. Und auch Fabienne von the fabilous librarian hat in ihrem Post weitere Punkte hinzugefügt. Sie schreibt:

Was ich an Google mag, ist zunächst die schlichte und übersichtliche Einstiegsseite: eine Suchzeile, in die ich direkt meine Anfrage (wie auch immer die aussehen mag) tippen kann, ohne mir vorher noch zu überlegen, welche Wörter ich in welche Felder eintragen muss (wie es bei vielen vermeintlich “einfachen” Suchen in Bibliothekskatalogen der Fall ist). […]
Das sind die Funktionalitäten von Google, die ich mir für Kataloge wünschte und die mich (trotz aller gerechtfertigten Diskussionen um Google) sagen lassen, dass Kataloge künftig in so einigen Punkten “just like Google” werden müssen.

Dabei habe ich mich an einen interessanten Ansatz erinnert, aus Bibliothekskatalogen eine “google like”-Suchmaschine zu gestalten. In Kooperation von KOBV und der Pilotbibliothek Wissenschaftspark Albert Einstein (WAE) in Potsdam wurde die Library Search Engine “ALBERT” entwickelt.

ALBERT steht dabei für All Library Books, journals and Electronic Records Telegrafenberg.1

Es handelt sich um eine Web-Applikation für Bibliotheksangebote auf der Basis von Lucene. Das neue Tool, im Einsatz für den WAE “ALBERT” genannt, ersetzt die Suche in den Bibliothekskatalogen des WAE und erschließt über die eigenen Bibliotheksbestände (Bücher, Zeitschriften) hinaus weitere Suchräume – u.a. neueste Inhaltsverzeichnisse, Open Acces-Publikationen und fachspezifische Bibliographien.2

In dem dazu erschienen Artikel

Karin Herm und Sibylle Volz
The Library Search Engine: A Smart Solution for Integrating Resources Beyond Library Holdings
in: The Code4Lib Journal, Issue 4, 2008-09-22
http://journal.code4lib.org/articles/142:engl:

heißt es:

We didn’t want to reinvent the online public-access catalog (OPAC) or substitute the integrated library system (ILS), since we were quite satisfied with its circulation module, the user sign-in, and the personalization features. Instead, we focused on creating a tool to compensate for the unsatisfactory search and retrieval components of the online catalog.

Ich glaube, das Projekt ist ihnen gut gelungen. Ich – als “unerfahrene Nutzerin” 😉 – musste mir bei der Suche keine Gedanken darüber machen, ob ich einen Artikel suche, ein Buch, eine ganze Zeitschrift oder ob ich eine Datenbank durchsuchen muss, um ein Ergebnis zu erhalten.

Teilen
  1. Der Wissenschaftspark Albert Einstein, dessen Bibliothek diese Suche nutzt, liegt in Potsdam auf dem Telegrafenberg. []
  2. Artikel zur Library Search Engine des KOBV []

Ähnliche Beiträge

Warum Google sterben muss?

Gründe dafür sucht John C. Dvorak im PC Magazine:engl: .

Once you learn how Google handles SEO, you see that getting the right results takes a miracle.

SEO steht für Suchmaschinenoptimierung. Ein Mythos, der sich dahinter versteckt, ist, dass man damit ein besseres Google-Ranking erhält, als man es verdient. Aber tatsächlich denken diejenigen, die SEO einsetzen eher, dass Googleergebnisse sind schlecht und sie müssen ihre Seiten mit SEO verbessern, um die Ergebnisse zu erhalten, die sie verdienen.

From a user’s perspective, once you learn how Google does what it does, it’s a miracle that you ever get the right results. And from my experience, the right results in many circumstances are nearly impossible to obtain—and may never be obtainable in the future.

Dvorak macht folgende Probleme mit Google fest:

  • Unfähigkeit, die Homepage zu identifizieren : Man sollte davon ausgehen, dass wenn man nach Art Jenkins sucht und dieser eine Homepage jenkinsart.com besitzt, sollte seine Homepage ganz weit vorne gelistet werden. Pustekuchen!
  • Zu viel Kommerz, nicht genug Information : Ein weit verbreiteter Irrtum gerade bei Google ist wohl, dass Menschen nur ins Internet gehen, um Geld auszugeben und zu shoppen. Wer nach Informationen über ein aktuelles Produkt, z.B. über ein Handy, sucht, findet lange Zeit erstmal nur Seiten, die ihm das Produkt verkaufen wollen. Objektiv ist da wohl sehr deutlich was anderes.
    Ziel der Suche sollte es doch eigentlich sein, die beste Seite als erstes anzuzeigen, ohne dass es darum geht, viel Geld für die Suchmaschinenoptimierung auszugeben.
  • Geparkte Seiten : Man muss schon von Betrug sprechen, was da die Suchmaschinen mit einem machen. Da werden nicht mehr benötigte Domains ins Domain Parking geschoben und dort mit vielen schönen und relevanten Stichworten gespickt, mit SEO auf Hochglanz in Suchmaschinenaugen getrimmt und schon sind sie ganz weit vorne bei Google gelistet. Wie also soll das PageRanking von Google mit diesen “Fake-Seiten” umgehen?
  • Unwiederholbare Suchergebnisse : Wie kommt es, dass man eine Recherche von letzter Woche zwar wiederholen, aber niemals die gleichen Sucherergebnisse erhält? Das ist ja schon von einem Tag auf den anderen oft so. Können sich Dinge so rasch drastisch ändern? Ganz schwierig ist, wenn man einem Kollgen bittet, die gleiche Suche zeitgleich mit nachzuvollziehen. Sie haben gute Chancen die Wette zu gewinnen, dass Sie nicht die gleichen Ergebnisse erhalten. Womit begründet Google das?

Welche Lösungen bieten sich an?

The solution to this entire mess, which is slowly worsening, is to “wikify” search results somehow without overdoing it. Yahoo! had a good idea when its search engine was actually a directory with segments “owned” by communities of experts. These people could isolate the best of breed, something Google has never managed to do.

Google hat sich an dieser Stelle immer auf mathematische Verfahren verlassen, die nie die Qualität von Yahoo! erreicht haben. Noch immer kann das menschliche Gehirn mit der Fähigkeit, Dinge kognitiv zu verknüpfen, nicht ersetzt werden. SEO-Experten durchschauen die Ranking-Algorithmen von Google und nutzen sie eben für ihre Vorteile.

Eine weitere Lösung ist das Flagging. Dahinter versteckt sich ein einfaches System. Das was die Maschine nicht kann, soll die Masse machen. Die Suchenden sollen die Suchergebnisse mit verschiedenen Attributen verknüpfen, beispielsweise könnten so durch Nutzer besonders gute Links gekennzeichnet werden, aber auch solche, die z.B. geparkte Domains sind. Risikoreich ist diese Variante schon, denn schon viele Bewertungskriterien von jedermann sind geknackt und in Google-Spam-Möglichkeiten umgewandelt worden.

Stephen Abram geht bei seinem Blogbeitrag Why Google Must Die:engl: noch weiter mit seinen Fragen und stellt dabei auch Verhalten der Bibliotheken in Frage. Zu viele Bibliothekare sagen, dass ihre OPACs, Metasuchen und Website-Suchmaschinen “just like Google” arbeiten sollten. Wenn es das ist, dann könnten wir auch einfach aufgeben, die weiße Flagge schwenken und gleich zu Google gehe. Er gibt da einige Punkte zu bedenken:

  1. Should I start manipulating the search results of library users based on the needs of advertisers who pay for position?
  2. Should I track your users’ searches and offer different search results or ads based on their private searches?
  3. Should I open library OPACs and searches to ‘search engine optimization’ (SEO) techniques that allow special interest groups, commercial interests, politicians (as we’ve certainly seen with the geotagged searches in the US election this year), racist organizations (as in the classsic MLK example), or whatever to change results?
  4. Should I geotag all searches, using Google Maps, coming from colleges, universities or high schools because I can ultimately charge more for clicks coming from younger searchers? Should I build services like Google Scholar to attract young ad viewers and train or accredit librarians and educators in the use of same?
  5. Should I allow the algoritim to override the end-user’s Boolean search if it meets an advertiser’s goal?
  6. “Evil,” says Google CEO Eric Schmidt, “is what Sergey says is evil.” (Wired). Is that who you want making your personal and institutional values decisions?

Abram ist auch erstaunt darüber, dass Bibliothekare sich nicht klarmachen, dass Google Milliarden Dollar damit verdient, in dem es die Kunden zum Einkaufen animiert, sprich es bezahlte Suchergebnisse verkauft. Google will Geld verdienen und verkauft sich dafür. Bibliotheken sollten auch im Bereich der Online-Angebote Google nicht verteufeln, aber sie sollten auch hier ein Ort bleiben, wo der Nutzer kein Geld bezahlen muss und sich nicht zum Geldausgeben verführt sieht.

Ziel sollte es also nicht sein, Google zu kopieren, weil dann kann man auch gleich zu Google gehen. Ziel muss es sein, eine Suche zu entwickeln, die die Bedürfnisse des Suchenden besser erfüllt als es Google tut. Fragen müssen sein: Kann die Suche so einfach zu bedienen sein wie Google und sollte sie es auch sein? Ich erlebe diese Frage immer wieder auch bei mir auf Arbeit. Da bietet der OPAC zwar den Google-Schlitz für die Suche an, dennoch schulen wir die Nutzung der erweiterten und komplizierteren Suche. Die Studenten sollen die Vorteile der erweiterten Suchmöglichkeiten kennenlernen.

Google zu verteufeln bringt nichts. Ziel muss es sein, Google als ein Suchinstrument von vielesn in eine strukturierte Recherche zu integrieren. Dafür müssen die Studenten aber die Algorithmen hinter Google und anderen Suchmaschinen verstehen. Oft fehlt eine gute Unterscheidung zwischen den einzelnen Suchinstrumenten, ihren Vor- und Nachteilen.

Google muss nicht sterben. Es hat mit all seinen Mankos eine berechtigte Position zwischen all den anderen Möglichkeiten (OPAC, Datenbank, Katalog, etc.). Bibliotheken haben sich das Vermitteln von Informationskompetenz auf die neuen Fahnen geschrieben. Das bedeutet aber auch, dass sie selbst mit kritischen, aber auch offenem Blick die Suchschwächen und -stärken der einzelnen Recherchmöglichkeiten beurteilen können müssen.

And they (the librarians, A.d.V.) should find their voice to talk to their host institutions and communities about their role.

Quellen:
Abram, Stephen: Why Google Must Die:engl: via Stephen’s Lighthouse
Dvorak, John C.: Why Google Must Die:engl: via PC Magazine

Teilen

Ähnliche Beiträge

DRM – geht auch anders?

Es gibt Alternativen zu den klassischen Maßnahmen von Digital Rights Management, so die Forscher des Internet Centre am Imperial College London:engl: .

Die neuen Ansätze, die mit digitalen Wasserzeichen und einer servergestützten Simultan-Nutzungskontrolle übers Internet arbeiten, sollen einige als besonders nutzerfeindlich empfundene Auswirkungen von gängigen Konzepten wie etwa Verfallszeitpunkten, Nutzungszählern, gerätebezogenen Lizenzdateien und Ähnlichem vermeiden.

Dieser Ansatz soll Anwendern die Herstellung von Pirvatkopien sowie die Wiedergabe auf verschiedenen Abspielgeräten weiterhin erlauben, die unerlaubte Weitergabe der Inhalte und ihre massenhafte illegale Verbreitung aber unattraktiv machen

Es wurden zwei verschiedene Spielarten von “nutzerfreundlicher” Kontrolle vorgestellt, die mit robusten individuellen Erkennungscodes (Wasserzeichen) arbeiten. Bei der Vervielfältigung der betreffenden Dateien durch den Nutzer, inclusive des Komprimieren und Dekomprimieren, sollen diese erhalten bleiben. Bei der ersten Variante wird verhindert, dass die Datei eines so gekennzeichneten Stücks gleichzeitig auf zwei Geräten abgespielt wird.

Wenn der Kontrollserver entdeckt, dass ein zum Abspielen vorgesehenes Dateiexemplar bereits irgendwo läuft, sperrt er die neue Abspiel-Anfrage.

Eine Weitergabe der Dateien wird unattraktiv, weil der Nutzer befürchten muss, dass die jeweilige Datei bereits woanders läuft, wenn er sie abspielen will. Damit ist die Weitergabe unattraktiv für ihn.
Der Vorteil dieser Methode, so Rayna, sei die Anonymität, da bei jeder Prüfung nur der SchutzcodBei dieser Methode würden nur die Wasserzeichen übermittelt. Allerdings werden dabei keine personen- oder gerätebezogenen Daten weitergegeben. In diesem Sinne gäbe es wohl kaum Probleme mit dem Datenschutz.

Die zweite Variante schaut beim Shareware-Konzept ab, das vielen aus dem Bereich der Computerprogramme bekannt ist. Verknüpft wird das DRM-Angebot mit Elementen des Pay-per-Use-Modells. Verwendet werden hier Ideen des Potato-DRMs, bei dem der Nutzer aktiver Teilnehmer der Vertriebs-, Verbreitungs- und nicht zuletzt auch der Promotion-Kette wird.

Nach der Vorstellung der Forscher soll man die betreffenden Unterhaltungsdateien oder Programme zunächst frei herunterladen und auch abspielen beziehungsweise anwenden dürfen, wobei jeder Einsatz online protokolliert wird.

Zukünftig soll nach Ablauf einer Testphase, in der die bisherige Art und Dauer der Nutzung ermittelt wird, ein Preis berechnet, der künftig dafür gezahlt werden muss. So würde man für selten abgespielte Musik weniger als für oft gehörte bezahlte. So würde der Kunde geringere Beträge für Produkte bezahlen, die er sonst gar nicht ausprobieren oder nur illegal beziehen würde.

Das mag manche Nachteile von DRM kompensieren, aber dennoch enthalten beide Methoden weiterhin denselben Nachteil, der für viele Nutzer DRM-geschützte Medien inakzeptabel macht. Um die Medien zu nutzen, benötigt man einen ständigen Internetzugang, der bei kleinen MP3-Playern und anderen mobilen Abspielgeräten nicht vorhanden ist. Der Datenverkehr bei mobilen Endgeräten ist noch sehr teuer und viele Kunden sind nicht bereit, Zusatzkosten für die Datenübermittlung beim Abspielen von Musik oder Videos zu berappen.
Das Argument der Befürworter dieser modifizierten DRM-Konzepte, dass die klassischen Methoden wesentlich stärkere Einschränkungen für rechtmäßige Nutzer digitaler Inhalte bedeuteten, etwa die Plattformabhängigkeit und Interoperabilität der Systeme, sind letztendlich nicht überzeugend genug.

Wasserzeichen als Teil von DRM sind nix Neues, und wer Wasserzeichen verwendet, sollte nicht drm-frei auf sein Label setzen. Noch ist die Nutzung von Wasserzeichen personalisiert. Die neuen Methoden entpersonalisieren zwar die Wasserzeichen, aber sie verhindert nicht, dass Massen von Daten gesammelt werden, die dann für eine zielgerichtete Werbung mißbraucht werden können bzw. für ungerechtfertigt hohe individualisierte Bezahlung. Außerdem steigen die Kosten für den Endverbraucher, der nun neben den Dateien auch nachträglich noch ihre Benutzbarkeit bezahlen müssten. Hier sollten die Tüftler nachbessern, denn so ist DRM mit Wasserzeichen keine wirkliche Alternative zum klassischen DRM (sofern Wasserzeichen keine klassischen Bestandteile von DRM sind).

Quelle:
Opitz, Rudolf: Suche nach neuen Wegen für digitales Rechtemanagement via heise online

Teilen

Ähnliche Beiträge

[Studie] Deutschland Digital Divide

Die Zahl von 58 Prozent, die laut BAT-Studie “hartnäckig online-abstinent” bleiben, ist erschreckend. In dieser Studie hat der Internetkritiker Opaschowski die “Offliner” genau untersucht. Danach sind Alte und Hauptschüler weiterhin von der Informationsgesellschaft ausgeschlossen.
Der Anteil privater Internetnutzer hat sich seit 1999 von 16 % auf 42 % im Jahr 2008 mehr als nur verdoppelt. Das darf nicht darüber hinweg täuschen, dass 58 % nie im Internet sind.

71 % der 14- bis 29-Jährigen surfen mindestens einmal in der Woche im Internet, wobei das bei 27 % allerdings Zeit zum Bücherlesen kostet.

Bei dieser repräsentativen Umfrage der BAT Stiftung für Zukunftsfragen (British American Tobacco) wurden 2.000 Menschen ab 14 Jahren nach ihren Mediengewohnheiten gefragt. Das Ergebnis der Studie wurde heute in Hamburg vorgelegt.

Die meisten Bundesbürger (58 Prozent) sind demnach weiterhin “nie” im Internet, bei der Generation der über 55-Jährigen sind es laut Studie sogar 83 Prozent. Horst W. Opaschowski, der wissenschaftliche Leiter der BAT-Stiftung: “Die elektronischen Datennetze liegen voll im Trend, aber privat liegen die meisten Bundesbürger lieber vor dem Fernseher auf der faulen Haut.”

Ein wenig zu erwarten war wohl, dass die Bildung bei der digitalen Spaltung – das Interesse an Informationen – eine entscheidende Rolle spielt, wobei die Bessergebildeten auch im Internet besser klarkommen, da der Umgang mit den neuen Informationstechnologien Bildung, Wissen und Können voraussetzt. Damit sind Einstiegshürden für viele Bürger einfach zu hoch. Hier müssen Bibliotheken sich engagieren, doch funktioniert das wohl nur mit guten Konzepten, die nicht nur im Rahmen des lebenslangen Lernens anzusiedeln sind. Ein Einstieg können hier die Unterhaltunsangebote des Netzes sein. Ich denke, wer sich in seinem Freizeitvergnügen hier mit Spass und Freude sicher zu bewegen lernt, kann vieles davon auch dann anwenden, wenn es um ernstere Dinge geht. Die Bahn beispielsweise ist ja nicht das einzige Unternehmen, dass verstärkt auf deen Interneteinsatz drängt.

Quelle
Die meisten Bundesbürger sind nie im Internet:x: via golem.de

Teilen

Ähnliche Beiträge

Das wird teuer für US-amerikanische Hochschulen

Da hat die US-Unterhaltungsindustrie-Lobby in den USA wohl einen großen Sieg gefeiert. Anfang 2008 scheiterte der 2007 unternommene Vorstoß, die Vergabe bundesstaatlicher Fördermittel an ein aktives Vorgehen der Hochschulen gegen illegale Downloads und illegales P2P-Filesharing zu knüpfen. Die Verpflichtung der Hochschulen, sollten ihre entsprechenden Aktivitäten nachweisen und ihre Studenten regelmäßig über Urheberrechtsverletzungen im Internet belehren. Die in diesem Vorstoß enthaltenen Bestimmungen wurden kurz vor der Verabschiedung des Higher Education Act Anfang des Jahres aus dem Gesetzesentwurf gestrichen.

Aus diesem Grund ging man einen Schritt zurück und konzentriert sich nun auf die einzelnen Bundesstaaten. Dass ihre Rechnung aufzugehen droht, zeigt ihr erster Erfolg beim Gouverneur von Tennessee. Dieser unterzeichnete in der vergangenen Woche ein Gesetz, nach dem alle Hochschulen und Universitäten verpflichtet sind, gegen Urheberrechtsverletzungen in ihren Netzwerken aktiv vorzugehen.

Im Gesetz heißt es dazu: “Jede öffentliche und private höhere Bildungseinrichtung, die permanent ein Computernetzwerk betreibt, muss… angemessene Maßnahmen ergreifen, um die Verletzung der Urheberrechte an geschützten Werken über die Computer und Netzwerke der Einrichtung zu verhindern, wenn sie 50 oder mehr im Sinne des Digital Millennium Copyright Act von 1998 rechtsgültige Hinweise auf Verletzungshandlungen im vorangegangenen Jahr erhalten hat.”

Ergänzend müssen die Bildungseinrichtungen Nutzungsrichtlinien für die Computer- und Netwerknutzung erlassen, die Urheberrechtsverletzungen untersagen und Hinweise auf die bundsrechtlichen Strafbestimmungen enthalten. Bis zum 1.4.2009 müssen die Einrichtungen Nachweise zu ihrem Vorgehen vorlegen.

Abschreckend wirkte nicht einmal die Kostenabschätzung für die im Gesetz vorgeschriebenen Maßnahmen. Allein die Implementierung würde ca. 9,5 Millionen US-Dollar anfallen. Allerdings kommen im Haushaltsjahr 2008/2009 weitere 1,65 Millionen und im Haushaltsjahr 2009/2010 nochmal fast 2 Millionen Dollar für die notwendigen technischen Maßnahmen und die Wartung hinzu.

Ob dafür im Bildungsetat zusätzliche Mittel bereitgestellt werden oder ob die Mittel aus dem vorhandenen Etat genommen werden müssen, ist nicht bekannt.

Dieses Gesetz kriminalisiert die Studenten pauschal. Robert A. Gehring berichtet in seinem Artikel beispielhaft von einer Studie der US-Unterhaltungsindustrie aus dem Jahr 2005, wonach die Hochschulen im Lande regelmäßig “Hochburgen der Piraterie sind”.

In einer Studie ließ die Filmindustrie […] ermitteln, dass 44 Prozent der Einnahmeverluste von Studenten verursacht würden. Nach Kritik an den Zahlen musste die mit der Durchführung der Studie beauftrage Firma LEK jedoch einräumen, versehentlich eine falsche Zahl präsentiert zu haben. Tatsächlich gingen nur 15 Prozent der Einnahmeverluste auf das Konto der Studenten.

Quelle: Gehring, Robert A.: Hochschulen in Tennessee müssen Urheberrecht schützen via golem.de

Teilen

Ähnliche Beiträge

Drunter und Drüber

Heute geht es ein wenig drunter und drüber bei Bibliothekarisch.de. Ich bin gerade dabei, alte Artikel von Chaoslinie.de händisch in das neue System zu übertragen. Immer mal wieder wird dafür ein Feed ausgespuckt, der natürlich “veraltet” ist.

Teilen

Ähnliche Beiträge

BITKOM gibt einen “Leitfaden für Web 2.0 in der öffentlichen Verwaltung” heraus

Interessanter Lesestoff, den die BITKOM da mit “Web 2.0 für die öffentliche Verwaltung” liefert. Neben einer kurzen Darstellung der Prinzipien des Web 2.0 gibt es dann auch nationale und internationale Kurzvorstellungen von Angeboten. Hier werden positive Beispiele der nationalen und internationalen Verwaltung gezeigt. Die 32-seitige Broschüre ist ein netter Überblick.

Quelle:
News: BITKOM – Leitfaden für Web 2.0 in der öffentlichen Verwaltung via Juristisches Internetprojekt Saarbrücken

Teilen

Ähnliche Beiträge

“Ariadne” – Oktoberausgabe

Die Oktoberausgabe 2008:engl: von Ariadne ist jetzt online. Es gibt einige relevante Texte zu Open Access:

Zu finden ist hier auch der Artikel von Jakob Voss:
Get Tooled Up: SeeAlso: A Simple Linkserver Protocol:engl: Jakob beschreibt die Kombination OpenSearch und unAPI für die Kataloganreicherung.

Teilen

Ähnliche Beiträge
1 2 3