Identitatsdiebstahl und Identitatsmissbrauch im Internet: Rechtliche und technische Aspekte


Spezielle Rechte für die Mitarbeiter der eigenen Organisation sind möglich, ebenso die Berücksichtigung von Embargofristen kommerzieller Verleger. Interdisciplinarity, as a mark of the modern science life, presumes an efficient knowledge communication, in which partners can interact sharing a common language. Generali AktivMix Dynamik Protect 80 Systeme, die sich speziell an die Bedürfnisse wissenschaftlicher Arbeit anpassen, sind für die Zukunft zu erwarten.

Ask a Question


Durchschau des des Zielfonds erforderlich, ansonsten 6 Abs. Behandlung der Einzelassets des Investmentanteils als einzelne Kreditnehmer und Zuordnung zu den jeweiligen Kreditnehmereinheiten. Behandlung der dem Institut bekannten Einzelassets des Investmentanteils als einzelne Kreditnehmer, Zuordnung zu den jeweiligen Kreditnehmereinheiten und Zuordnung des unbekannten Teils der Forderungen zur sog. Anwendung bei Investmentfonds oder Teilen davon, deren Einzeldaten nicht in der Weise verfügbar sind, dass eine Durchschau seitens des Anlegers gewährleistet werden kann.

Dadurch entfällt die aufwendige Berücksichtigung der Einzelkreditrisiken. Markit iboxx, Zahlen per. Markit iboxx, Bloomberg, eigene Berechnungen, Stand Berechnungsmethodik: Es qualifizieren sich nur Senior-Debt, keine Sub-Ordinated. Nur Anleihen mit Fix-Kupon qualifizieren sich. A- Mindestvolumen 1 Mrd. Platz 1 für ETFlab u. Sie stellen auch keine Vorschläge, Empfehlungen oder gar Anregungen zum Investieren in bestimmte Finanzinstrumente dar.

Es wird keine Gewähr weder ausdrücklich noch stillschweigend für die Richtigkeit oder Aktualität der Angaben übernommen. Die Angaben stellen weder Entscheidungshilfen für wirtschaftliche, rechtliche, steuerliche oder andere Beratungsfragen dar, noch dürfen allein aufgrund dieser Angaben Anlage- oder sonstige rechtlich relevante Entscheidungen gefällt werden. Gegebenenfalls genannte Zahlen sind nicht verbindlich. Eventuell angeführte Performanceergebnisse sind nicht verbindlich, bieten keine Gewähr und sind kein Indikator für zukünftige Wertentwicklungen.

Anleger können gegebenenfalls weniger ausbezahlt bekommen als sie investiert haben oder sogar einen Totalverlust erleiden. Wechselkursschwankungen können eine Anlage ebenso beeinflussen. Angaben zur Performance lassen gegebenenfalls anfallende Kommissionen und Kosten bei Aus- und Rückgabe der Anteile unberücksichtigt. Die Verkaufsprospekte werden Ihnen zu diesem Zweck vor einem möglichen Erwerb jeweils von der zuständigen Stelle aufgrund von gesetzlichen Bestimmungen rechtzeitig zur Verfügung gestellt.

Vor jeder Anlageentscheidung sollte eine ausführliche Beratung erfolgen, in der Sie ausführlich über Kosten und Risiken, die mit der konkreten Anlage verbunden sind, aufgeklärt werden. Börsengehandelte Indexfonds von Deka Investment. Nur für professionelle Anleger Indexleitfaden Seite 1 Indexleitfaden Einführung Börsenindizes bilden Ausschnitte globaler Märkte ab und machen diese transparent und vergleichbar.

Sie stellen damit Kennziffern. Nur für Nur für professionelle Anleger Die Klassiker: DAB Investmentkongress, München Jetzt mehr erfahren auf easyfolio.

Einfach anlegen, ein gutes Gefühl. Wir bieten mit easyfolio. Agenda 1 2 3 Zinsumfeld mickrige Renditen Aktienmärkte volle Fahrt voraus?

Von Sektor- und Länderallokation profitieren. Optimiert für deutsche Investoren. Investmentbedarf vorhanden aber wie umsetzen? Februar Inhaltsverzeichnis 1.

Summary der Inhalte 2. ETF-Anleger setzen auf Aktienmärkte 3. Citadel Man Group Fortress. Zusätzlich werden Instanzen als Referenz auf reale Entitäten eingefügt Mit Hilfe von Regeln können Merkmale und Kriterien für die Klassenzugehörigkeit definiert werden, die Verwendung formaler Logiken lässt Schlussfolgerungen und Ableitungen impliziter Zusammenhänge zu. Unter Ausnutzung komplexer Ontologiesprachen wie OWLDL18 lassen sich Ontologien nicht nur wie herkömmliche kontrollierte Vokabulare zur Annotation verwenden, sie eignen sich auch dazu, Wissensausschnitte in eindeutiger Form festzuhalten.

Diese können somit als gemeinsame Wissensbasis innerhalb von Communities aber auch zwischen Mensch und Maschinen oder Maschinen untereinander dienen. Web Ontology Language, siehe http: Neue Erkenntnisse müssen dann nach und nach in bestehende Schemata eingefügt werden, was unter Umständen eine Umstrukturierung bereits vorhandenen Wissens erfordert.

Das so zusammengestellte formalisierte Wissen kann als Referenzwerk dienen, Wissenschaftler können darin Informationen nachschlagen oder Definitionen überprüfen. Über Reasoning Mechanismen lassen sich darüber hinaus die Zusammenhänge erfassen, die nicht explizit in die Ontologie eingegeben wurden. Nun kommt es in erster Linie darauf an, semantische Technologien bzw. Ontologien mit den oben beschriebenen Netzwerken zu verbinden. Hierzu gibt es bereits zahlreiche Ansätze mit ganz unterschiedlichen Ausgangspunkten.

Zum Spektrum gehören beispielsweise: Semantische Strukturen helfen hier in erster Linie bei der Maschine-Maschine Kommunikationen und sollen einen verbesserten Workflow zwischen einzelnen Anwendungen gewährleisten. Verschiedene Interessengemeinschaften können sich hier formieren und ihr Wissen z. Kommentare und Bilder direkt an eine thematische Ontologie knüpfen Abbildung 4. Mit Hilfe der Ontologie kann dann in den Einträgen auch semantisch gesucht werden. Auch für Wikipedia werden Ansätze zur semantischen Erweiterung erarbeitet Völkel et al.

Neue Informationen werden direkt mit Instanzen der Ontologie verknüpft. Wenngleich es Folksonomies an terminologischer Kontrolle mangelt, so haben sie doch den entscheidenden Vorteil, Sichtweisen und Vokabular der Nutzercommunity direkt abzubilden.

Diesen Effekt kann man in Ontologien übertragen, wenn diese kollaborativ erarbeitet werden. Es gibt bereits einige Ansätze für gemeinschaftlich nutzbare Ontologieeditoren22 Bao, Hanovar , Hepp et al.

Im Ontoverse Projekt23 soll zudem eine vernetzte Community — bestehend aus Fachexperten verschiedener Bereiche und Experten für Wissensformalisierung — an den kollaborativen Ontologieeditor angeschlossen werden Paulsen et al. Auf diese Weise können direkt gemeinschaftliche Wissensbasen aufgebaut und gepflegt und der wachsende Bedarf an angepassten 20 DBin: Gleichzeitig werden die Vorteile einer wissenschaftlichen Communitiy für die fachliche Diskussion genutzt.

Mit diesen vielfältigen Ansätzen zeichnet sich für die Zukunft die nächste Herausforderung ab: Formalisierungen verschiedener Wissensbereiche müssen auf einer weiter übergeordneten Ebene wiederum zueinander in Beziehung gesetzt werden, Konkordanzen und Querverweise müssen aufgebaut werden. Erschwert werden diese Bemühungen vor allem noch dadurch, dass sich Ontologien durch fortdauernde Aktualisierungen und Ergänzungen im ständigen Wandel befinden können.

Fazit Aktuelle Trendbegriffe wie e-Science, Web 2. Es ergeben sich daraus für eine vernetzte Wissenschaftslandschaft insbesondere die folgenden Merkmale: Darin liegen sowohl wissenschaftliche Primärdaten z. Ergebnisse aus Experimenten wie auch wissenschaftliche Publikationen vor. Diese werden kollaborativ gepflegt und von Communities mit neuen Ergebnissen angereichert.

Interessensgruppen kommentieren und diskutieren vorhandene Daten und nutzen bereitgestellte Portale für die strukturierte Aufbereitung der enthaltenen Informationen, wobei bestehende Ontologien und semantische Technologien für die Informationsintegration genutzt werden.

Bis so ein System jedoch technisch realisiert und praktisch implementiert werden könnte, sind noch zahlreiche technische und organisatorische Probleme zu lösen, und selbst dann wird es letztlich davon abhängig sein, inwieweit die Forschungsgemeinschaft zur Teilnahme bereit ist. Alexiev V, Breu M et al. Information Integration with Ontologies. Experiences from an Industrial Showcase, Chichester: Antoniou G, van Harmelen F Bachler M, Chen-Burger J, et al.

Collaborative Tools in the Semantic Grid. Bao J, Honavar V Linked Information Processes in Research Networks. Concepts, Technologies and Applications, London: Bröcker L, Paal S Wiki Next Generation Enhanced Repositories.

Technologische Trends beim Einsatz semantischer Netzwerke. Schriften des Forschungszentrums Jülich, , S. Clark T, Kinoshita J Briefings in Bioinformatics 8 , S. Corcho O, Pinar A, et at. A Reference Semantic Grid Architecture. Journal of Web Semantics 4 2. Towards the Semantic Web. Ontology-Driven Knowledge Management, Chichester: Diederich J, Iofciu T Intranet applications for tagging and folksonomies.

Online, 30 3 , S. Foster I, Kesselmann C Goble C, Corcho, O, et al. E-Science and the Semantic Web: Social Bookmarking, Folksonomies, and Web 2. The Magazine for Database Professionals, 14 6 , S.

The Case for Mixing and Matching. Serials Review, 30 4 , S. Hammond T, Hannay T, et al. Social Bookmarking Tools I: D-Lib Magazine, 11 4. Handschuh S, Staab S Hrsg.

Annotation for the Semantic Web, Amsterdam: Serials Review 30 4 , S. Collaboration through Annotations in the Semantic Web. Annotation for the Semantic Web. Frontiers in Artificial Intelligence and Applications Vol. The Human Infrastructure of Cyberinfrastructure. Computer Supported Cooperative Work. Leser U, Naumann F Architekturen und Methoden zur Integration verteilter und heterogener Datenquellen, Dpunkt. Macgregor G, McCulloch E Collaborative tagging as a knowledge organisation and resource discovery tool.

Library Review, 55 5 , Neumann E, Prusak L Knowledge Networks in the Age of the Semantic Web. Briefings in Bioinformatics 8 3 , S. Peters I, Stock WG Folksonomy and Information Retrieval. Special Section on Recommender Systems. Schuster M, Rappold D Was soziale Dynamik im Semantic Web auslöst.

Pellegrini T, Blumauer A Hrsg: Wege zur vernetzten Wissensgesellschaft, Berlin, Heidelberg: Staab S, Studer R Hrsg Folksonomies and Science Communication. Stuckenschmidt H, van Harmelen F Throwing Pebbles into a Dark Cave. Uren V, Cimiano P, et al. Semantic Annotation for Knowledge Management. Requirements and a Survey of the State of the Art. Journal of Web Semantics 4 1. Social Software im Einsatz für die Wissenschaft.

Online-Tagung der DGI, Cultivating Communities of Practice. A Guide to Managing Knowledge, Boston: Wu H, Gordon M Organizing Document Repositories Effectively and Efficiently. Wissenschaftler arbeiten zunehmend vernetzt und interdisziplinär an wechselnden Orten in ortsungebundenen virtuellen Organisationen und auf der Grundlage weltweit verteilter Ressourcen. Das Informationsmanagement in Wissenschaft und Forschung war bisher darauf konzentriert, Ergebnisse aufzubereiten, diese über leistungsfähige Informationssysteme bereitzustellen und die Nutzung langfristig zu sichern.

Für ein zukünftiges vernetztes Wissensmanagement, das sich mit Entstehung, Erwerb, Bewahrung, Bewertung, Ordnung, Verknüpfung, Identifikation, Abruf, Austausch und Nutzung von Wissen beschäftigt, ist jedoch die innovative und nachhaltige politische, organisatorische und technische Unterstützung des gesamten wissenschaftlichen Wertschöpfungsprozesses essentiell. Innovative Dienstleistungen und Infrastrukturen in diesem Umfeld sind notwendig, um Wissenschaft und Forschung bei der Informationsbeschaffung, Kommunikation, Kollaboration und Wissensgenerierung bis hin zur Publikation optimal und nachhaltig zu unterstützen.

Neue Informations- und Wissenstechnologien helfen, die etablierten organisatorischen Strukturen, das Informationsmanagement und die verfügbaren Werkzeuge weiter zu entwickeln und zu ergänzen und somit Forschungsprozesse zu vereinfachen, zu intensivieren und zu beschleunigen. E-Science beschreibt eine neue wissenschaftliche Arbeitsumgebung, die die Zusammenarbeit in verteilten Teams, den einfachen Austausch von Ressourcen und optimierte Publikations- und Kommunikationsprozesse umfasst.

Das Wachstum dieser Datenmengen geht ungebremst weiter Becla et al. Immer mehr Institutionen bauen Digitale Bibliotheken und Institutional Repositories auf, um ihren Forschern und Studenten den einfachen, schnellen und effektiven Zugang zu relevanten Informationen zu ermöglichen.

Allerdings werfen diese vielfältigen neuen Informationsquellen auch neue Probleme auf: Persistenz, Zitierbarkeit, Auffindbarkeit, disziplinübergreifende Suchen, usw. Weiterhin sollten sich diese neuen Repositorien nicht auf die traditionell von Bibliotheken verwalteten Daten beschränken, sondern alle Artefakte speichern, die im Prozess der Wissensentstehung anfallen Henry Nur so ist der gesamte Prozess nachvollziehbar dokumentiert und gleichzeitig ein Arbeiten in verteilten Teams collaboration überhaupt erst sinnvoll möglich.

Dazu haben FIZ Karlsruhe und die Max-Planck-Gesellschaft MPG eine strategische Partnerschaft gebildet, um gemeinsam eine integrierte Informations-, Kommunikations- und Publikationsplattform für netzbasiertes wissenschaftliches Arbeiten zu entwickeln und in multidisziplinären Anwendungen zu erproben. Dabei wird ein produktiv einsetzbares System entstehen. Das Projekt zielt nicht auf eine bestimmte Disziplin oder einen Anwendungsfall ab, sondern bietet eine generische Infrastruktur und Anwendungsumgebung für alle wissenschaftlichen Sektionen der MPG.

Dazu erhebt das Projekt Anforderungen direkt in den Instituten, untersucht dort entstandene Anwendungen GAVO ; ECHO und generalisiert sie teilweise, um von den vorhandenen Erfahrungen und Ergebnissen zu profitieren und mit den späteren Nutzern gemeinsam praxisgerechte Lösungen zu erarbeiten.

Damit wird eSciDoc allerdings auch mit einer Vielzahl von Anforderungen konfrontiert, die eine hohe Flexibilität hinsichtlich Metadatenprofilen, Datentypen und Wiederverwendbarkeit von Diensten einfordern. Dies führt zur Verwendung von generischen Objektstrukturen content models , die auch den Umgang mit bisher noch nicht vorgesehenen Datentypen und —strukturen erlauben.

Gleichzeitig erlauben die einheitlichen Objektstrukturen die einfache Nachnutzung von Daten, auch über unterschiedliche Anwendungen hinweg. Die Solutions führen diese Dienste zu disziplinspezifischen oder übergreifenden Anwendungen zusammen. D-Grid und kopal kann die Infrastruktur um dort entwickelte und angebotene Dienste ergänzt werden DGrid ; kopal Gleichzeitig können aber auch Dritte die Dienste von eSciDoc nachnutzen.

Unterschiedliche Solutions können auf gemeinsam genutzte Dienste des Frameworks zugreifen; das Framework wiederum stellt nur einen Knoten in einem Netzwerk interoperabler Repositories dar.

Mit den Daten werden notwendige Metadaten für das Retrieval und die Langfristarchivierung gespeichert. Dazu gehört auch die Vergabe von persistenten Identifiern, die die verlässliche Zitierung und Referenzierung der Publikationen ermöglichen. Die Solution unterstützt semantische Beziehungen zwischen den Publikationen und damit verbundenen Personen z. Das Einpflegen neuer Inhalte erfolgt über weitgehend konfigurierbare Arbeitsabläufe workflows , die auch mehrstufige Qualitätskontrollen und Versionierung Razum et al.

Die Mächtigkeit des Publication Managements bringt eine gewisse Komplexität mit sich. Durch rollenbezogene Sichten z. Weiterhin entstehen eine Reihe von Solutions, die sich mit dem wissenschaftlichen Arbeitsplatz der Zukunft beschäftigen, der so genannten Scholarly Workbench. Sie soll den Wissenschaftlern auf einfache Weise das Erstellen, Verarbeiten und Publizieren von digitalem Quellenmaterial ermöglichen.

Dabei sollen auch geografisch verteilte Arbeitsgruppen gemeinsam an solchen digitalen Kollektionen arbeiten können. Durch die Einbindung lokaler und im Netz verfügbarer disziplinspezifischer Werkzeuge lassen sich die Daten analysieren, bewerten, bearbeiten, anreichern, verknüpfen und annotieren. Die Realisierung erfolgt in Schritten, ausgehend von relativ einfachen Szenarien etwa dem Umgang mit Bildern.

Mit jeder weiteren Solution kommen komplexere Funktionen hinzu. Deren Mitarbeiter arbeiten direkt oder indirekt an der Entwicklung mit und stellen so die Praxisnähe der entstehenden Solution sicher. Das Framework bietet keine Dienste an, die Endnutzer direkt ansprechen, sondern stellt seine Funktionen über einfach und intuitiv zu bedienende Programmierschnittstellen Software-Entwicklern zur Verfügung.

Aus technischer Sicht besteht das Framework aus einer Reihe unabhängiger Dienste, die über eine service-orientierte Architektur SOA lose miteinander verbunden sind Krafzig et al. Durch die Verknüpfung solcher Dienste erstellen Software-Entwickler einfach und in kurzer Zeit neue leistungsfähige Anwendungen.

Das Framework stellt alle notwendigen Funktionen zur Verfügung, um den gesamten Lebenszyklus eines Objekts z. Dabei gibt es nahezu keine Beschränkungen für den Aufbau und die digitalen Bestandteile eines solchen Objekts. Aufgrund ausgefeilter Berechtigungsmechanismen können Autoren bereits den ersten Entwurf ihrer Arbeit ablegen und anfangs nur einem begrenzten Auditorium zugänglich machen, z. Auch die beschreibenden Informationen in den Metadaten können sie schrittweise ergänzen und vervollständigen.

Dabei sind die Nutzer nicht auf eine spezielle eSciDoc Anwendung angewiesen. Damit müssen sich die Anwender nicht an das Framework anpassen, sondern können ihre gewohnte Arbeitsumgebung beibehalten. Mit dem Fortschreiten der Arbeit können die Zugriffsrechte immer wieder bedarfsgerecht angepasst werden — von vertraulichen Daten bis hin zu Open Access Publikationen. Spezielle Rechte für die Mitarbeiter der eigenen Organisation sind möglich, ebenso die Berücksichtigung von Embargofristen kommerzieller Verleger.

Für die Darstellung oder Auswertung der Bestandteile eines Objekts können WebServices eingebunden werden, die nicht notwendigerweise Bestandteile des Frameworks sind. So lassen sich auch sehr spezifische Funktionen, die z. Dieses Vorgehen ermöglicht, sehr spezielle Objekte im Framework abzulegen, ohne dass hierzu eine Weiterentwicklung der Framework-Software notwendig wäre.

Durch die Bereitstellung vieler immer wieder für solche EScience-Anwendungen benötigter Funktionen vereinfacht sich die Programmierung erheblich. Damit versetzt das Framework z. Das Framework garantiert die einheitliche und sichere Implementierung der zugrunde liegenden, immer wiederkehrenden Aufgaben. Der Aufbau der fachspezifischen Solution erfolgt damit auf einer verlässlichen und nachhaltigen Infrastruktur, die auch den Betrieb in einer dedizierten Produktionsumgebung erlaubt.

Hierdurch kann diese kritische Komponente auf einer ausgereiften Software aufsetzen und von der sehr aktiven weltweiten Community profitieren. Die Daten, oftmals aufwändig erstellt, stehen nur für diesen Zweck zur Verfügung: Wissenschaftliches Arbeiten jedoch ist ein sehr dynamischer Prozess, bei dem sich die Sicht auf die Daten und ihre Verwendungsmöglichkeiten schnell ändern können.

Gleichzeitig erfordern E-ScienceAnwendungen Objekte unterschiedlichster Typen — vom in sich abgeschlossenen wissenschaftlichen Artikel bis hin zu komplexen Objekten mit mehreren Bestandteilen wie Bildern, Experimentaldaten und Beschreibungen. Der Object Manager verwaltet deshalb die Daten in generischen Objektstrukturen, die sich nicht auf die zurzeit bekannten Anwendungsszenarien und Objekttypen festlegen. Durch die Trennung von Framework und Solutions stehen von Anfang an klar definierte Schnittstellen zur Verfügung, um auf die Daten zuzugreifen.

Damit können die gespeicherten Objekte später auch in neuen, bisher noch nicht angedachten Solutions wieder verwendet werden. Auf diese Weise entsteht eine vernetzte Wissensbasis, die die Information in den Objekten selbst um eine zusätzliche Schicht erweitert, die die Objekte untereinander in Beziehung setzt und so Mehrwert schafft. Folgt diese Bedeutung gewissen Regeln, baut man damit eine Ontologie auf. Alle Objekte können in verschiedenen Repräsentationsformen z.

Dateiformaten und mit mehreren Metadatensätzen unterschiedlicher Schemata angelegt werden. Erst durch eine solche Speicherung entfalten die Objekte ihren vollen Wert. Die Objekte lassen sich in verschiedenen logischen Strukturen z. Collections oder Bundles organisieren. Auch hierfür stellt das Framework entsprechende Dienste zur Verfügung. Voraussetzung für die Authentifizierung ist eine Benutzerverwaltung.

Gerade für ein System, das auch sensible Daten wie noch nicht publizierte Zwischenergebnisse verwaltet, ist eine zuverlässige und fein abgestufte Rechteverwaltung wichtig. Benutzer haben hier sehr detaillierte Rechte zum Erstellen, Bearbeiten und Lesen von digitalen Objekten oder auch nur von Teilen davon. Beispiel hierfür sei ein Artikel, auf dessen Metadaten frei zugegriffen werden kann, dessen Volltext aber aufgrund einer Vereinbarung mit dem Verlag noch gesperrt ist.

Das Framework übernimmt die komplette Zugriffsverwaltung und nimmt damit diese komplexe Aufgabe den Anwendungen ab. So garantiert das eSciDoc Framework jederzeit eine konsistente Rechteverwaltung und deren korrekte Anwendung für alle gespeicherten digitalen Objekte — unabhängig von den darüber liegenden Anwendungen.

Die Entwickler der Anwendungen können sich also ganz auf die eigentliche Geschäftslogik konzentrieren und müssen sich keine Sorgen machen, dass sie durch Fehler die Integrität des Systems gefährden.

Metadatenverwaltung Das eSciDoc Framework unterstützt neben einem internen noch weitere, auch selbst definierte Metadaten-Schemata. Unterschiedliche Objekttypen benötigen jeweils eigene Metadatenprofile, teilweise gibt es auch mehr als einen Metadatensatz pro Objekt.

Die Metadatenverwaltung übernimmt hierbei mehrere Aufgaben: Dazu können Transformationsregeln hinterlegt werden. Typischerweise sind dies die Metadaten, bei Textobjekten auch der Volltext. Je nach Domäne und gespeicherten Objekten sind aber viele weitere Suchen denkbar, z. Für viele diese Probleme gibt es bereits Lösungen, die in diesem Zusammenhang nachgenutzt werden können.

Spezielle Suchen können über unabhängige Dienste eingebunden werden und so die spezifischen fachlichen Probleme der Wissenschaftler lösen helfen. Solutions aus dem Bereich der Scholarly Workbench zeigen beispielhaft ausgefeilte Suchen in altsprachlichen Textbeständen und deren mehrstufige linguistische Analyse. Die dazu notwendigen Funktionalitäten sind als eigenständige Webservices umgesetzt, so dass sie in vielfältigen E-Science-Umgebungen einzusetzen sind.

Diese wiederum haben eine Zugehörigkeit zu einer Institution und ihren Organisationseinheiten wie Abteilungen oder Arbeitsgruppen. Eigentums- und Urheberverhältnisse darzustellen und indirekt auch die Zugriffsrechte auf die Objekte zu steuern. Weiterhin ist über diese Dienste eine Zuordnung von Personen und Organisationseinheiten zu den in der Benutzerverwaltung bereitgestellten Daten möglich.

Interoperabilität eSciDoc existiert nicht auf einer Insel. All dies erfordert flexible Möglichkeiten der Datenübernahme - Flexibilität nicht nur hinsichtlich der Formate, sondern auch hinsichtlich der Automatisierung solcher Prozesse. Dies umfasst die Beschreibung von Quellsystemen, die zu verwendenden Verfahren Protokolle, Häufigkeit, notwendige Umwandlungsschritte sowie eventuelle Qualitätssicherungsschritte.

Auch der Austausch mit anderen Systemen oder mit Kollegen sowie die Erstellung von z. Publikationslisten erfordern umfangreiche und flexible Exportfunktionen.

Hier spielt die Umwandlung von Metadaten und Dateiformaten eine wichtige Rolle. Das Projekt eSciDoc wird alle Open-Source-Softwarekomponenten des Gesamtsystems eSciDoc Solutions und Framework veröffentlichen, um sie interessierten Informationseinrichtungen in Wissenschaft und Forschung zur Verfügung zu stellen und die Grundlage dafür zu schaffen, die Software gemeinsam mit anderen Beteiligten weiter zu entwickeln.

Der Aufbau einer offenen Kommunikationsplattform unterstützt die Bildung einer aktiven E-Science-Community, die ähnliche Fragestellungen aus der täglichen Arbeit mit wissenschaftlichen Informationen über Organisations- und Disziplingrenzen hinweg diskutiert und somit weitere Entwicklungen von E-Science-Anwendungen vorantreibt. Literatur Becla et al. German e-Science Conference, Baden-Baden. University of California, Irvine. On-line publishing in the st Century.

D-Lib Magazine, Volume 9, Issue Ein Service für die Langzeitarchivierung digitaler Informationen, Homepage. Computing in the Age of the Genome. Volume 46, Issue 6, ServiceOriented Architecture Best Practices.

International Journal on Digital Libraries. Volume 6, Issue 2. Versioning of Digital Objects in a Fedora-based Repository.

Entwicklung eines Instrumentariums für die Wissenskommunikation Elena Semenova, Martin Stricker Abstract Interdisziplinarität als Kennzeichen des modernen Wissenschaftslebens setzt in Forschung und Lehre eine effiziente Wissenschaftskommunikation voraus, bei der sich die Partner über eine gemeinsame Sprache verständigen können.

Klassifikationen und Thesauri übernehmen dabei eine wichtige Rolle. Zu beobachten ist, dass vorhandene Instrumente in ihrem Gefüge zu inflexibel sind, um die komplex ineinander verwobenen Felder der Wissenschaft in ihrer dynamischen Entwicklung adäquat abzubilden, zur Selbst- Verständigung über das Wesen und Struktur der Wissenschaftslandschaft sowie zum erfolgreichen Wissensaustausch beizutragen.

In einigen Einzelwissenschaften und Teilgebieten ist diesbezüglich eine rege Tätigkeit zu beobachten, es fehlt allerdings noch ein fachübergreifendes Instrumentarium. Diese Ontologie soll dazu beitragen, eine effiziente Wissenskommunikation, besonders bei interdisziplinären Projekten, zu unterstützen, verfügbare Ressourcen auffindbar zu machen und mögliche Knotenstellen künftiger Kooperationen zu verdeutlichen. Ausgehend von der Kritik an vorhandenen Instrumenten wird derzeit ein Begriffsmodell für die Beschreibung von Wissenschaftsdisziplinen, ihrer zentralen Facetten sowie ihrer interdisziplinären Beziehungen untereinander entwickelt.

Das Modell, inspiriert vom Topic Maps Paradigma, basiert auf einer überschaubaren Menge zentraler Konzepte sowie prinzipiell inverser Beziehungen. Eine entsprechende Ontologie wird in unterschiedlichen technischen Beschreibungsformaten formuliert werden können. Dies bildet den Grundstein für den Fokus des Projekts, flexible, verteilte, benutzer- wie pflegefreundliche technische Umsetzungen zu entwickeln und mit Kooperationspartnern zu implementieren. Ontology for Academic Disciplines.

The development of a tool for knowledge communication. Interdisciplinarity, as a mark of the modern science life, presumes an efficient knowledge communication, in which partners can interact sharing a common language. Classifications and Thesauri play hereto an important role. It is noticeable, that available instruments are too inflexible in their diversity to display the complex interwoven science fields appropriately in their dynamic development to contribute to the understanding about the nature and the structure of the knowledge landscape, as 61 Elena Semenova, Martin Stricker well as to a successful knowledge exchange.

Ontologies provide new ways for the solution of this task. Some action can be observed in a few solitary science disciplines and sub-areas as to that, however most lack interdisciplinary tools to tackle the task. The aim is to close the above-mentioned gap and to create a concise ontology for set-up, research and data exchange in science communication. This ontology should take over to sustain a useful science communication, especially in regard to interdisciplinary projects, to retrieve available resources and to highlight possible knot spots for future cooperation.

Due to criticism of existing tools, a term framework for the description of science disciplines, their central layers as well as their interdisciplinary relationships, is currently in development. The framework, inspired by Topic Maps Paradigm, is based on a controlled amount of central concepts and regularly inverse relationships. An according ontology can be formulated in different technical description formats.

This lays the groundwork for the focus of the project, to develop flexible, distributed, userfriendly technical implementation for optimal partner cooperation. Die drastische Veränderung der Wissenschaftslandschaft ist zu einem markanten Zeichen unserer Zeit geworden.

Die Wissenschaftsentwicklung der letzten Jahrzehnte zeichnet sich neben der Etablierung neuer wissenschaftlicher Disziplinen sowie ständiger Erneuerung und Erweiterung der Inhalte von bereits bestehenden Einzelwissenschaften, insbesondere durch eine ausdrückliche Tendenz zur Interdisziplinarität, aus. Die Logik dieser Entwicklung macht Wissenschaftskommunikation zum unentbehrlichen Teil des wissenschaftlichen Lebens. Dementsprechend wächst die Rolle der Kommunikationsinstrumente.

Eine gelungene Kommunikation kann nur dann erfolgen, wenn alle Kommunikationspartner eine gemeinsame Sprache beherrschen oder zumindest mit ihren Grundstrukturen vertraut sind. Die Begriffssysteme, die auch als Dokumentationssprachen bezeichnet werden, wie Klassifikationen, Thesauri und zunehmend Ontologien, erhalten dabei neue Funktionen und gewinnen dadurch an Bedeutung. Im Bereich des Datenaustausches, einem wichtigen Teil der Wissenschaftskommunikation, ist die Anwendung systematisch erfasster Begriffssysteme heute unabdingbar geworden.

Mit zunehmender Rolle, die Begriffssysteme für den Wissensaustausch spielen, vermehren sich auch die Anforderungen an sie. Die modernen Instrumentarien sollten möglichst adäquat die gewählte Domäne in ihrer Komplexität abbilden, zeitnah, flexibel und gleichzeitig eindeutig, konsistent, skalierbar und effizient in der Benutzung sein.

Bei der Zusammenarbeit von Wissenschaftlern aus unterschiedlichen Bereichen erschwert die semantische Pluralität die Arbeit enorm. Die Notwendigkeit eines für alle Beteiligten verständlichen und klar strukturierten Vokabulars, welches die Fachsprache kanalisiert, das Wissensaustausch — vor allem im Rahmen technischer Informationssysteme - ermöglicht, die Kommunikation auf allen Ebenen erleichtert und in einer transparenten und nachvollziehbaren Struktur repräsentiert wird, ist kaum zu überschätzen.

Die heute vorhandenen Strukturen entsprechen jedoch diesen Anforderungen nicht: Keines der verfügbaren Vokabularien kann die zunehmende Komplexität der wissenschaftlichen Erkenntnisse und Strukturen zufriedenstellend repräsentieren. Traditionell wird das System der Wissenschaftsdisziplinen in Form von Klassifikationen dargestellt, d. Vor einigen Jahren war eine Tendenz zu beobachten, die Nachteile der starren Baumform mit Hilfe der Bildung von polyhierarchischen Vokabularien zu überwinden.

Die Entwicklung von Ontologien als Begriffssysteme war die logische Folge dieser Tendenz, ging aber darüber hinaus und führte zu einem gewissen Paradigmenwechsel in diesem Bereich: Die Ontologien entwickeln sich rasch. In der Wirtschaft längst Norm geworden, gewinnen sie seit einiger Zeit sichere Positionen im Wissenschaftsalltag. In vielen Teilbereichen der Wissenschaft werden fachspezifische Ontologien entwickelt.

Wenn jedoch die Struktur der Wissenschaftslandschaft selbst repräsentiert werden soll, wird nach wie vor zumeist auf die konventionelle Systematik in Form der Klassifikation zurückgegriffen.

Die Gründe dafür sind ohne Zweifel in der Geschichte zu suchen. Durch die historische Entwicklung hat es sich so ergeben, dass die Bibliotheken im Bereich der informationswissenschaftlichen Technologien eine Vorreiterrolle übernommen haben. Als Melvil Dewey in den 70er Jahren des Jahrhunderts seine Dezimalklassifikation entwickelte, entsprach diese einerseits den Anforderungen, eine ortsgebundene, klare und einheitliche Ordnung in die Bibliothek zu bringen, andererseits ist in ihr die zeittypische Ordnung der Wissenschaftsdisziplinen ablesbar.

Von der zweiten Ebene an wird diese Art der uneinheitlichen Klassenbildung in Hinsicht der Wissenschaftsdisziplinen noch deutlicher: In addition, the management of knowledge based on ontologies is necessary. Therefore, comparing, mapping, and integrating ontologies should be implemented in which the task of matching is to reduce ontology heterogeneity problem and identify the similarities between entities from ontologies. From the issue mentioned above, research communities have developed methods for ontology matching based on several aspects of similarity such as lexical, semantic, structural, and instances.

This thesis focuses on the task of ontology matching which has received many investigations in recent years. Although a lot of individual similarity measures are proposed, no ontology matching system uses only one technique to match.

Normally, more than one similarity measure is used and the matching results are then combined to obtain the final alignment.

Ontology matching systems give solutions to achieve the best possible matching results by using lexical-based, structure-based, semantic-based, and instances-based techniques together.

The proposed methods used in these systems take into account different aspects of the similarity of entities in ontologies. In this work, ontology matching is based on our structural, lexical and semantic methods and use WordNet dictionary.

In particular,we present an improvement of the lexical metric by applying information theoretic and edit distance approaches, new structural and semantic measures. The first contribution of this study is applying information-theoretic and edit distance methods to flexibly measure lexical similarity. Besides of improving the accuracy for string-based similarity degrees, this metric deals with some irrelevant situations. Our second approach is a novel structure-based similarity measure for automatic ontology matching.

Being different from existing structural measures, this approach takes into account all of the ancestors of considered concepts. Another contribution of this research is a semantic similarity measure between nouns based on the structure of WordNet. This measure uses the WordNet dictionary as an external resource to take semantics of entities. Besides the positions of two entities relatively to the root in a hierarchy, this approach considers the relationships between these entities.

Our ontology matching solution is integrated by using weighted sum method to measures in which both sequential and parallel strategies are executed for computing similarity.