Plan3t.info

Bibliothekarische Stimmen. Independent, täglich.

Informationskompetenz durch Discovery-Systeme?

Verbessern Discovery-Systeme die Informationskompetenz?

| 21 Kommentare

Ich habe gerade den aktuellen Beitrag von Thomas Hapke zur Situation der Thema Informationskompetenz an Universitätsbibliotheken gelesen und mir ein paar Gedanken zum Bereich Discovery gemacht. Diese sind sicherlich noch nicht komplett durchdacht, aber vielleicht laden sie zum Mitdenken ein. Hier meine Fragen, die mir dazu in den Sinn gekommen sind, zumal ich bei mir auf Arbeit in der UB der HSU sowohl an der Einführung eines Discovery-Systems beteiligt bin als auch an einer Neuorientierung unserer Informationskompetenzkurse mitarbeite.

Wie verändert sich durch den Einsatz von Discovery-Systemen Informationskompetenz? Wie abhängig ist Informationskompetenz von den verwendeten Nutzer-Oberflächen? Wie verhindern hinter den Oberflächen liegende Gegebenheiten (Indexierung, grundlegende Datenstruktur und -verknüpfungen, Katalogiserungs-Regelwerke usw. ) ein optimales Recherche-Ergebnis bzw. was muss man an eigentlich unnötiger Informationskompetenz aufbringen, um aus den Systemen das Beste rauszuholen?

Informationskompetenz durch Discovery-Systeme?

  • Verändern Discovery-Systeme überhaupt etwas an der Informationskompetenz oder vereinfachen sie einfach die Usability der Nutzung (Oberfläche)?
  • Ist es nicht eher so, dass allein die Recherchefähigkeiten gefragt sind, die durch Discovery-Systeme besser unterstützt werden?
  • Ist jemand informationskompetent, der erkennt, dass er, wenn er auf einen Punkt in einer Faszette klickt, seine Suchergebnisse verändert, der aber nicht weiß, warum es auf diese Weise passiert und was eigentlich im Hintergrund passiert?
  • Müssen informationskompetenten Nutzer verstehen, wie ihre Suchergebnisse zustande kommen?
  • Gehen durch verschiedene Metadaten- und Austauschformatstandards nicht sinnvolle Zusatzinformationen verloren oder werden wichtige Angaben vermischt?
  • Entsteht Zensur durch vorgefertigte Faszetten?
  • Benötigen wir für gleichgute Ergebnisse wie in unseren OPACs nicht mehr Schritte bei der Recherche?
  • Verführen Discovery-Systeme und ihre Anreicherungsmöglichkeiten zu einem zu viel an („nicht relevanten“) Zusatzinformationen?
  • Überfordern zu viele Auswahlmöglichkeiten (Einschränkungs- und Filtermöglichkeiten) unsere Nutzer?
  • Reicht für eine genaue Informationsrecherche eine „Google-like“-Suche oder kriegen wir dann auch nur „Google-like“-Ergebnisse?

Wir vereinfachen durch Discovery-Systeme sicherlich das Auffinden von Informationen zu einem bestimmten Thema für ausgewählte, qualitativ hochwertigere Literatur. Der Zugang wird verbessert und unsere Nutzer kommen sicherlich mit einem Mindestmaß an Recherchefähigkeiten zu vorzeigbaren Ergebnissen. Damit können wir für bessere Erfolgserlebnisse sorgen. Doch das ist nur ein kleiner Teil von dem, was wir unter Informationskompetenz subsumieren, nämlich gerade mal der Standard 2. Im Grunde können wir mit Discovery-Systemen in IK-Schulungen sicherlich Zeit sparen beim Rechercheteil, der ja in vielen Einrichtungen ketzerisch behauptet (?) einen Großteil der Schulungen ausmacht, aber damit eine Verbesserung der Informationskompetenz per se zu erreichen halte ich nicht für möglich.

21 Kommentare

  1. Pingback: Gelesen in Biblioblogs (14.KW’12) « Lesewolke

  2. Ich hab ja null Ahnung von der ganzen Thematik, aber zum Ausprobieren gerade mal ein wenig mit TUBfind (VuFind-System der TU Hamburg-Harburg) herumgespielt und mit dem TUHH-OPAC verglichen. Warum finde ich mit denselben Suchanfragen im OPAC meist mehr Treffer, obwohl bei TUBfind nicht nur der Katalog, sondern auch noch weitere Quellen enthalten sein sollen? Also meine Informationskompetenz übersteigt das total.

  3. Die Frage kann ich nicht so einfach beantworten, da ich deine Suche nicht nachvollziehen kann. Bei Tests, die ich gemacht habe mit den verschiedenen Systemen, zeigte sich, dass mehr gefunden worden ist als im OPAC selbst, sogar dann, wenn auf die Bestände der entsprechenden Bibliothek eingegrenzt wurde. Mögliche Ursachen für weniger Treffer:
    – veralteter Index, da letzte Updates noch nicht eingespielt worden.
    – kein Auffinden „enthaltener Werke“, weil dies über MARC 21 nicht abgebildet werden kann.
    – andere Suchalgorithmen.
    – unterschiedlicher Umgang mit Sonderzeichen.
    – geringere Anzahl von Feldern, die standardmäßig durchsucht werden.
    – ???

    • OK, nach weiterem Rumprobieren muss ich mein anfängliches Urteil revidieren: *Sowohl* TUBfind *als auch* der TUHH-OPAC übersteigen meine Informationskompetenz. In beiden Systemen erhalte ich Treffer, in denen keins meiner Suchwörter vorzukommen scheint. Z.B. erscheint bei der Suche nach „fraktale AND chaos“ (über „alle Wörter“) im OPAC als 3. Treffer das Buch „Chaos and time-series analysis“. Mein Suchwort „fraktale“ steht zwar anscheinend nirgends im Datensatz, aber im Inhaltsverzeichnis kommt immerhin das Wort „fractal“ vor. Durch irgendeinen faulen Zauber hat der OPAC mir also einen Titel in die Trefferliste geschmuggelt, der tatsächlich relevant sein könnte. Mit derselben Suchanfrage finde ich in TUBfind zwar mehr Treffer (55 gegenüber 43 im OPAC), aber „Chaos and time-series analysis“ ist nicht darunter…

      • Danke für dieses schöne Beispiel. Das Buch „Chaos and time-series analysis“ ist bei uns tatsächlich vorhanden, kann aber über TUBfind im lokalen Katalog nicht gefunden werden. Das liegt daran, dass in den von uns importierten MARC-Daten zu diesem Titel kein Titel angegeben ist (siehe https://katalog.tub.tu-harburg.de/Record/353441937/Details#tabnav). Das Buch stammt aus unserem allerersten Import im Jahr 2010, der seitdem zwar kontinuierlich aktualisiert wird, aber das kann nur passieren, wenn der upzudatende Titel auch im CBS verändert (bzw. angefasst) wird. Ansonsten müssten wir mal wieder einen Komplett-Neudump einspielen, was sicher auch sinnvoll wäre, weil es wahrscheinlich mehrere Fälle wie den genannten gibt.

        Zieht man GBV Central zur Suche hinzu (das ist bei der Testrecherche offensichtlich nicht gemacht worden, ist auch noch nicht voreingestellt), dann wird das Buch korrekt angezeigt, weil die MARC-Daten aktueller sind. Das soll bald bei uns auch Standard werden. Mit der Suchanfrage „chaos AND fraktale“ würde es allerdings trotzdem auch nicht gefunden, weil GBV Central noch keine Inhaltsverzeichnisse beinhaltet und meines Wissens auch noch nicht mit Normdatenverknüpfungen agiert.

        Dass der OPC den Titel bei der Suchanfrage findet wundert mich auch. Im Inhaltsverzeichnis liegt es jedenfalls nicht begründet, denn das wird vom OPC nicht in die Suche einbezogen. Ich vermute den Fund also in einer Normdatenverknüpfung.

        Fazit: etwas intransparent können die Treffer tatsächlich in beiden Systemen sein (im OPC wegen der Normdatenverknüpfungen, in TUBfind/Lokalkatalog wegen der Inhaltsverzeichnisse).

  4. Die von Martin de la Iglesia beschriebene Beobachtung zeigt eben das Discovery-Systeme keine eierlegenende Wollmilchsäue sind. 8-) Solche System und die Recherche-Ergebnisse dieser Systeme werden gemacht, man kann auch sagen, wie ich andserswo mal geschrieben habe, sozial konstruiert: http://blog.hapke.de/information-literacy/zur-sozialen-konstruktion-von-recherche-ergebnissen/

    Die obige Beobachtung kann je nach verwendeten Suchtermen darauf beruhen, dass die TUHH-Bibliothek von der Verbundzentrale des GBV Datensätze in den Index von TUBfind bekommt, die Schlagwörter aus der Schlagwort-Normdatei enthalten, deren in der Norm-Datei enthaltenen Synonyme aber in der MARC21-Datenlieferung nicht mitgeliefert werden und dadurch nicht im Index landen. Diese erhöhen aber den Recall im normalen Bibliothekskatalog. Siehe für ein solches Beobachtungsergebnis auch weiter unten in einem Beitrag in meinem Blog:
    http://blog.hapke.de/information-literacy/zur-archologie-von-metadaten-ein-erfahrungsbericht/

    Bei anderen Suchtermen wird die Treffermenge in TUBfind deutlich höher liegen, da zusätzlich Inhaltsverzeichnisse mit indexiert werden, insbesondere natürlich dann wenn man den GBV Central Index mit bei der Anfrage berücksichtigt.

  5. Grundsätzlich: Der Vergleich der Größe der Treffermengen in klassischen OPACs und üblichen „Discovery Interfaces“ führt nicht wirklich weiter… Ich predige ja gerne, dass diese Systeme vollkommen unterschiedliche Such-Paradigmen(!) umsetzen, deswegen können die Ergebnisse nicht gleich sein. OPACs arbeiten üblicherweise nach dem „exact match“-Paradigma, „Discovery Interfaces“ nach dem „best match“ Paradigma. Diese beiden Paradigmen werden technisch vollkommen unterschiedlich umgesetzt („exact match“ üblicherweise mit einer booleschen Suchmaschine, „best match“ in der Bibliothekswelt üblicherweise als Vektorraum-Suchmaschine).
    Die Frage, welches Paradigma nun die „besseren“ Treffer liefert ist so alt wie das Information Retrieval. Es gibt dazu auch Untersuchungsverfahren, die aber in unterschiedlichen Szenarien ihre Vor- oder Nachteile haben (bzw. komplett versagen), so dass die Ergebnisse nicht vergleichbar sind. Die Frage lässt sich also schlicht nicht allgemein beantworten, sondern nur mit einem klaren „es kommt drauf an“. Deswegen raten wir eigentlich jedem potentiellen Kunden, er möge sich mit beiden Paradigmen auseinandersetzen und eine bewusste, begründete Entscheidung treffen (und bitte dann nicht „das liefert aber andere Treffer“ jammern). Das passiert leider zu selten (weil Kriterien wie „das hat aber runde Ecken“ wohl manchmal wichtiger sind). Und nein, man kann nicht beide Paradigmen vereinen. Eine Suchanfrage mit booleschen Operatoren funktioniert in Vektorraummodellen halt nicht (ok, manchmal „halbwegs“ doch, weil man Eigenschaften boolescher Suche auch in den Vektorraum-Maschinen nachbaut/simuliert, dennoch gilt das gesagte: Ein Vereinigung beider Paradigmen geht nicht).

    Im konkreten Suchbeispiel aber auch ganz allgemein kommt allerdings erschwerend das Chaos hinzu, das wir mit unseren Daten veranstalten. Das hat aber weder etwas mit dem verwendeten Transportformat (auch in MARC21 lassen sich Verknüpfungen zwischen Datensätzen darstellen), noch mit der verwendeten Suchtechnik zu tun. Sondern… tja, möge jeder selbst darüber nachdenken… Es ist jedenfalls Käse, dass „Discovery Interfaces“ nicht mit Verknüpfungen oder Normdaten umgehen könnten, wie man es gelegentlich hört. Es scheitert üblicherweise an den Unzulänglichkeiten bzw. der fehlenden Beherrschbarkeit an anderen Stellen unserer Technik (Behauptung). Und an fehlenden (umsetzbaren) Ideen, wie man diese Daten denn wirklich sinnvoll nutzbar machen könnte (weitere Behauptung)…

    • Hallo Till,

      danke für deine Antwort. Zwar kann man sich als Entscheider über die Pardigmen klarwerden, aber nicht immer lassen sich die Kollegen mit diesen Überlegungen an Bord holen. Die möchten häufig eines: Alles aus dem Katalog (“exact match”) + das MEHR, welche dann die Discovery-Services bieten. Es geht an der Stelle immer um die Frage: Was ist drin und was kriegen wir raus. Das Umgewöhnen von einer „Bestandssuche“ zu einer „Themensuche“ fällt gerade eingefleischten langjährigen „Supernutzern“ des OPACs recht schwer. ;-)

      Aber danke für die deutliche Unterscheidung. Damit kann ich das ein oder andere Argument nun intern besser in Worte fassen.

      Über das Metadatenchaos könnte man vermutlich einiges schreiben, allein über entstehende Ungenauigkeiten, die beim Umschreiben von einem Transportformat ins nächste und übernächste entstehen und die dann natürlich Auswirkungen auf die Suche haben.

      • Das mit den zwei unterschiedlichen Paradigma leuchtet ein, aber wer (immer im WB-Kontext gedacht) eine Themensuche innerhalb eines Bibliotheksbestandes durchführt, ist doch eh von allen guten Geistern verlassen. Ich kann mir jedenfalls nicht vorstellen, wozu das gut sein soll.

        • Dem Argument, ein Bibliothekskatalog sei kein guter Ort für eine thematische Suche, kann ich durchaus etwas abgewinnen :-) Wir sollten dann aber schnellstens über den Aufwand nachdenken, den wir in Sacherschließung stecken. Und in Datenerzeugung und -pflege in unserer Branche überhaupt.
          Kühne These: Wenn die Bestände von Bibliotheken sowieso schon irgendwo sonst beschrieben (und damit „findbar“) sind, könnte ich mir den ganzen Katalog als Instrument zur Suche und Beschreibung sparen.
          Man bräuchte dann nur noch einen guten Weg von der Beschreibung, auf die man irgendwo stößt, zum Buch im Bibliotheksregal. Da ist der Katalog in seiner jetzigen Form eigentlich eher hinderlich (als „Bestandsnachweis“ und „Suche“ nach Beständen). Denn man muss noch einmal (mitunter mühsam) suchen(!) (obwohl man schon gefunden hatte, was man haben will), in redundanten bibliographischen Beschreibungen (deren Erstellung und Pflege einen ziemlichen Aufwand erzeugen, der mit dem „Kerngeschäft“ der Bibliothek eigentlich nichts zu tun hat).
          Eigentlich wäre es doch schöner, wenn diese „Bestandssuche“ im Katalog ganz entfallen könnte. Wenn ich eh schon weiß, was ich haben möchte, will ich ja nicht noch einmal danach suchen.
          Ich habe keine fertige Lösung dafür. Sie könnte aber etwas mit Referenzierbarkeit und der Nutzung der Möglichkeiten zur Verlinkung in diesem Recherchetool, das die Kundschaft eh schon nutzt (aka Web), zu tun haben :-). Auf dem Wege könnten wir dann auch das Datenchaos loswerden (bzw. auf Bestands- und Verfügbarkeitsdaten reduzieren).
          Also? Wer macht mit? Wenn wir den Katalog weder zur thematischen noch zur Bestandssuche brauchen, schaffen wir ihn ab, bzw. reduzieren ihn auf ein Nachweisinstrument von Beständen und Verfügbarkeit (das sind die Daten, die tatsächlich nur die Bibliothek hat).

          • Bestandssuche hat ja etwas mit dem „Wiederauffinden“ an einer (oder mehren bestimmten) Stelle(n) zu tun. Je mehr ich als „wiederfinden“ muss, desto eher benötige ich eine gute „exact match“-Möglichkeit. Ob diese zukünftig ein Katalog für jede Bibliothek sein muss, das ist die andere Frage. Da kommt es auf die Menge der enthaltenen „Bestandsaufbewahrer“ an. Den Faktor „lokal dort und dort vorhanden“ darf man nicht unterschätzen. Schnelle Fakteninformation.

            Die inhaltliche Suche im OPAC ist mühsam. Hier helfen Discovery-Services garantiert weiter. Allerdings gewinnen diese wiederum gegenüber Google & Co durch die Anreicherung von „normierten“ Erschließungsmechanismen. Ich kenne mich zu wenig im Bereich des „Semantic Web“ aus, aber ich wage zu bezweifeln, dass momentan inhaltliche Komponenten schon passend erkannt werden, z.B. ob es sich bei Moskau um den Verlagsort handelt oder um die Region, in der ein Ereignis stattgefunden hat. Dies lässt sich aber über eine inhaltliche Erschließung zur Zeit darstellen.

            Im Ergebnis (und vermutlich zu vereinfacht gesagt) benötigen wir nur die entsprechenden Metadaten, Verknüpfungen und Indices, über die wir dann die Recherchemittel laufen lassen können. Verringerte Detailliertheit bei der Anzeige für „Bestandsnachweise“ und starke Detailliertheit und hohe Erschließungsrate für thematische Suchen. Ansonsten eben auch warten auf die Errungenschaften des Semantic Web.

          • Wenn Discovery-Systeme jetzt bereits mit Normdaten umgehen können, ist mir wohl etwas wesentliches entgangen. Tatsache ist doch, wie Till ja auch schrieb, dass OPACs und Discoverysysteme auf gänzlich unterschiedlichen Suchtechniken fußen, die sich nicht kombinieren lassen. Und ein Suchindex wie der von Solr ist kein relationales Werkzeug wie eine relationale Datenbank. Verknüpfungen müssen hier auf Anwendungsebene nachgebaut werden, von selbst kennt Solr doch nur die Verknüpfung von Werten zu einem Datensatz ohne etwaige Fremdschlüssel. Dieser Nachbau der Verknüpfungen ist in den derzeit eingesetzten Discovery-Systemen meines Wissens noch nirgendwo realisiert (nur in Leipzig gab es bislang was greifbares dazu).

            Es wäre aber vielleicht tatsächlich eine Frage, ob Discovery-Systeme wirklich mit Normdatenverknüpfungen umgehen können müssen. Dass das nicht nur positive Effekte hat, ist ja leicht nachweisbar: Die Suche nach Römisches Reich ergibt (auch) Treffer zu Deutschland, weil Deutschland als Sysnonym Heiliges Römisches Reich Deutscher Nation zugeordnet ist. Sowas kann auch nicht im Sinne des Erfinders sein.

            Eigentlich ist die Normdaten-Verknüpferei doch dazu da, die Treffermenge zu erhöhen. Discovery-Systeme haben aufgrund des anderen Suchansatzes meist aber eh höhere Treffermengen (wage ich mal zu behaupten). Hätte die Einbeziehung von Normdaten dann nicht sogar eine eher kontraproduktive Wirkung? Braucht man wirklich *noch mehr* Treffer?

            Ein aus meiner Sicht anderes Thema ist der themenorientierte Sucheinstieg. Ich denke, wenn man den für Bibliothekskataloge tatsächlich nicht braucht, dann sind Discovery-Systeme wirklich weitgehend überflüssig. Das würde ich aber so nicht unterschreiben. Auch wenn die Known-Item-Search in den Suchanfragen an Bibliothekskataloge dominiert, wie ja einige Statistiken behaupten, wird die Themensuche für viele weiter wichtig bleiben, gerade für Doktoranden oder wissenschaftliche Mitarbeiter. Auch deswegen sollte er in Bibliothekskatalogen nicht vollständig ignoriert werden. Und in diesem Zusammenhang wäre eine Einbeziehung der Normdaten dann doch wieder wünschenswert (und die Unzahl an Treffern könnte duch eine sinnvolle Relevanzbewertung relativiert werden).

          • Sollte der Eindruck entstanden sein, dass Discovery-Systeme mit Normdaten wirklich umgehen könnten, dann ist das natürlich falsch. Das ist immer noch ein Desiderat (offengelassen mit welcher Priorität). Nun ist es aber so, wenn wohl auch über Fremdschlüssel, dass bei Discovery-Systemen mit Hilfe erschlossener Daten letzendlich eine bessere (?) Einschränkung der Treffermengen ermöglicht wird. Sollte das jetzt laienhaft klingen, so bin ich in dieser Hinsicht auch „Laie“ und lerne gerade jede Menge dazu :)

            Wie sinnvoll Normdaten in dieser Hinsicht sind, weiß ich nicht. Mit “normierten” Erschließungsmechanismen meinte ich jedoch eher formal normierte Begrifflichkeiten, z.B. Moskau = Verlagsort, Moskau = Region. Das in dieser Hinsicht Bestrebungen bestehen, zeigen momentan die Entwicklungen bezüglich des Semantic Web, wo durch die Schaffung von Onthologien eine Automatisierung erreicht werden soll. Ich hoffe, ich habe dies richtig verstanden.

            Was nun die beiden Suchparadigmen angeht und die damit verschiedenen Herangehensweisen bei OPAC und Discovery-Service, so bieten wir hier eben verschiedene Suchinstrumente an, die ihre Vor- und Nachteile haben. Für den Bereich Informationskompetenz heißt dies, wir müssen beide Ressourcen vorstellen, wobei es eher darum geht zu erklären, wofür sie sich besser eignen als die Recherche en detail zu erklären (Richtige Wahl der Recherchemittel für meinen Informationsbedarf). Für die Anforderungen zum Anfang des Studiums bedeutet dies, dass Discovery-Tools uns Zeit verschaffen (weil finden tun sie ja erstmal besserwertige Literatur), um die Studierenden dann zu erreichen, wenn sie im Studium angekommen sind.

          • @Oliver Goldschmidt: Ich sehe nicht ein, warum „Doktoranden oder wissenschaftliche Mitarbeiter“ ein Interesse an Themensuchen haben sollten. Es wäre fatal, wenn ernsthaft wissenschaftlich arbeitende Nutzerinnen und Nutzer ihre Literaturrecherche auf den Bestand ihrer Hochschulbibliothek einschränkten.

          • @Martin de la Iglesia: „Ich sehe nicht ein, warum „Doktoranden oder wissenschaftliche Mitarbeiter“ ein Interesse an Themensuchen haben sollten.“ — Nun ja, eine Known-Item-Search wird für Wissenschaftler doch noch wesentlich weniger zielführend sein.

            „Es wäre fatal, wenn ernsthaft wissenschaftlich arbeitende Nutzerinnen und Nutzer ihre Literaturrecherche auf den Bestand ihrer Hochschulbibliothek einschränkten.“ — Davon war nicht die Rede und so möchte ich meine Aussage auch nicht verstanden wissen. Zunächst einmal ist klar, dass Wissenschaft aus der Nutzung zahlreicher Rechercheinstrumente besteht und natürlich sollte man sich nicht auf den Bestand einer einzigen Hochschulbibliothek begrenzen. Aber auch viele Discovery-Systeme schränken sich nicht auf diesen einen Suchraum ein. Um als Beispiel nochmal TUBfind anzuführen: durch die Suche in GBV Central kann im gesamten GBV gesucht werden. Weitere Erweiterungen des Suchraumes sind durchaus möglich, wie andere Discovery-Systeme demonstrieren (z.B. der Leipziger finc). Natürlich ist trotzdem ein Discovery-Tool nicht die einzige Lösung, die genutzt werden sollte. Aber eine von ihnen.

      • Ja, dass immer „alles“ gewollt wird und das ohne Aufwand, das wissen wir mittlerweile auch. Manchmal geht das aber halt nicht (aus ganz unterschiedlichen Gründen, das können technische sein oder wirtschaftliche oder auch prinzipielle, wie bei den Retrieval-Paradigmen)… Dann finde ich es allerdings wichtig, zu erklären, warum. Das passiert zu wenig. Und so geht das Spiel mitunter lustig weiter: „Wir wollen aber…“ – „Jaja, nehmen wir in die Versionsplanung auf, kommt Weihnachten…“.
        Mag auch sein, dass es manche gar nicht interessiert… Was allerdings schade ist.

        • Nicht jeder kann alles wissen und (ich hoffe nur) einige interessiert häufig wenig über ihren Tellerand hinaus. Alles und für kleines Geld oder vielleicht eher gesagt „möglichst das Beste für wenig Aufwand“ ist immer Kompromissen unterworfen, für die man verschiedene Ebenen verstehen muss, technisch-mathematische (kann noch nicht berechnet/programmiert werden), inhaltliche (fehlende Erschließung), politische (Einschränkungen werden in Kauf genommen, um uptodate zu wirken), wirtschaftliche (kein Etat vorhanden) usw. Wenn man immer nur einen Teil dieser Zusammenhänge sieht, bearbeitet oder beachtet, kommen verzerrte Bilder von einem „Alleskönner“ (Discovery-System) zustande. Dabei ist das häufig noch nicht mal bös gemeint, sondern beruht auf der Tatsache, dass ich z.B. den Aspekt „technische Umsetzbarkeit einer Abfrage und Kombination von einzelnen Feldern nach einer ungenauen Konvertierung von PICA in MARC“ gar nicht einschätzen kann.

          Hier muss „Übersetzungsarbeit“ geleistet werden, was leider nicht immer leicht fällt.

  6. Spannende Diskussion hier… Zur Kernfrage: Meine derzeitige Einschätzung dazu ist, dass sich durch die Einführung von Discovery Tools Informationskompetenz im engeren Sinne erst einmal nicht verändert.

    Was sich hingegen verändert, sind die Zugangsmöglichkeiten zu Information. Meine These wäre, dass Discovery Tools zu mehr Informationsleichtigkeit führen. Das führt dazu, dass User auch ohne Informationskompetenz mehr relevante Information finden können. Dadurch könnte IK für Ersteinstiegs-User weniger relevant werden, hoch relevant aber bleibt sie für alle fortgeschrittenen Rechercheure, die sich mit den angebotenen Suchmöglichkeiten und dem Relevanzranking nicht zufrieden geben.

    Die Erfahrungen mit Summon (KonSearch) in Konstanz zeigen, dass gerade neue User (aber nicht nur diese) mit einfachen Oberflächen prima zurechtkommen und mit den Ergebnissen sehr zufrieden sind. Weniger precision, ja, aber mehr recall, und das heißt auch mehr Entdeckung.

  7. Pingback: Verbessern Discovery-Systeme die Informationskompetenz … | Blog von schlind

  8. Pingback: Kurze Vorstellung von HSUfind | Bibliothekarisch.de

  9. Das Thema wird immer noch emotional diskutiert: infobib.de/blog/2012/10/17/discovery-system-undoder-katalog

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.


Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.