Darmstädter Ontologenkreis

Ontologie Interdisziplinär

Archiv

Verfügbarkeit von Präsentations-Unterlagen

Zu den meisten der Vorträge existieren Präsentations-Unterlagen. Allerdings sind nicht alle Autoren damit einverstanden, diese öffentlich ins Internet zu stellen.

Aus diesem Grund ist der Zugriff auf die Unterlagen nur einem begrenzten Personenkreis möglich und durch ein Passwort geschützt. Wenn Sie sich für einen Vortrag interessieren, wenden Sie sich sich gerne an den im Impressum gennanten Verantwortlichen.

Bisherige Kolloquien

Ontologien im Wandel

Wo stehen wir mit dem Ontologenkreis und wo gehen wir hin – in Erwartung rasanten Fortschritts mittels Künstlicher Intelligenz? An diesem Termin ersetzen Rückblick, Impuls und Diskussion den sonst üblichen wissenschaftlichen Vortrag. Wir tauschen uns darüber aus, mit welchen Themen wir den Ontologenkreis zukünftig gestalten, sammeln Anregungen und Interessen.

Matthias Rewald

Ontologenkreis – Was bisher geschah

Rückblick auf über 14 Jahre Ontologenkreis

Kai-Uwe Schäfer

Ontologien im Wandel

Ioachim Drugus, Ph.D.

Towards a Calculus of Ideas

In his paper[1], John Locke developed what is now called the “theory of ideas” - a theory about the objects of the conscious mind that represent the objects of the external world.

John Locke wrote that in addition to “simple ideas”, which in modern terms might be called “atomic ideas”, there are also “complex ideas”, which are built up from simple ideas by several “mental operations”.

In terms of modern algebra, John Locke's ideas appear to be elements of a free universal algebra generated by “atomic ideas”. An idea represents many objects, a set, a class, a multitude (here referred to as the “extension” of the idea), and this suggests that the signature of such a universal algebra can be found starting from set-theoretic considerations.

After this “translation” into modern terms, a contemporary researcher would be tempted to determine the signature of the universal algebra of ideas, to formulate a calculus using the terms of this signature, and to show how ideas can be automatically generated in this calculus.

In this sense, the present author has proposed a virtual machine for generating ideas within the free algebra of ideas [2], and an algebraic set theory for describing the extensions of ideas.

Mareike Sirman-Winkler, Doktorandin der Carl-von-Ossietzky Universität Oldenburg, Institut für Sozialwissenschaften

Künstliche Intelligenz in der öffentlichen Verwaltung

Die öffentliche Verwaltung in Deutschland setzt in zunehmendem Maße algorithmische Entscheidungssysteme ein, die auf Künstlicher Intelligenz (KI) basieren. Die großen Potentiale von KI, die mit der Verwaltung in Verbindung gebracht werden, gehen aber auch mit potentiellen Risiken einher, vor allem im Bereich der Sozialversicherungsbehörden. Dies möchte Frau Sirman-Winkler in ihrem Vortrag auf Basis empirischer Fallbeispiele veranschaulichen.

Nach der Vorstellung ausgewählter KI-Anwendungsfälle in Sozialversicherungsbehörden wird sie schwerpunktmäßig auf die Frage eingehen, wie sich der Einsatz algorithmischer Systeme auf Beamt*innen und Bürger*innen auswirken kann.

Die Einführung von KI im Sozialstaat ist nicht trivial, es gibt eine Reihe von sektorspezifischen Herausforderungen. Welche Rolle spielt beispielsweise die Akzeptanz der Nutzer*innen bei der Einführung solcher Systeme?

Zum Schluss möchte Frau Sirman-Winkler noch auf die jüngsten Entwicklungen eingehen und darstellen, vor welche Fragen generative KI (wie ChatGPT) die öffentliche Verwaltung stellt.

Prof. Dr. Nina Janich, Germanistik - Angewandte Linguistik
Institut für Sprach- und Literaturwissenschaft, TU Darmstadt

Zwischen Diagnose und Prognose: wissenschaftliches Wissen in Politik und Medien

Der Vortrag zeigt, wie in Texten der Wissenschaftskommunikation und Politikberatung im Zuge von Diagnosen und Prognosen sicheres, unsicheres oder fehlendes Wissen zeitlich gerahmt wird – zum Beispiel als aktueller Wissensstand oder als Annahmen über die (noch ungewisse) Zukunft.

Diskutiert werden solche Phänomene vor dem Hintergrund, dass Wissenschaft im Kontakt mit Politik und Medien leicht in ein Dilemma gerät: nämlich (nur) nützliches Wissen bereitzustellen oder (auch) politisch wirksam sein zu wollen.

Dr. Enrico Anders

Ohne RAMS macht´s rums!

Das Acronym „RAMS“ steht für „Reliability, Availability, Maintainability, Safety“. Das ist natürlich ein Anspruch, der leicht gesagt, aber schwer zu erreichen ist.

Insbesondere in komplexen Systemen, wie z.B. dem Betrieb eines ganzen landesweiten Bahnnetzes, hat man es mit einer Komplexität zu tun, die ohne Hilfsmittel fast nicht mehr zu überblicken, geschweige denn zu bändigen ist.

Dr. Anders arbeitet im Bereich der Bahn-Sicherungstechnik. Wie Ontologien dabei helfen, aus Fehlern und Unfällen zu lernen, um den Anspruch von „RAMS“ in die Realität umzusetzen, darüber spricht er in seinem Vortrag.

Prof. Dr. Dave Raggett, member of W3C/ERCIM

From logic to argumentation:
reasoning with imperfect knowledge in the era of Artificial General Intelligence (AGI)

Human interactions and our understanding of the world is replete with uncertainty, imprecision, incomplete and inconsistent knowledge. Logicians have largely turned a blind eye to the challenges of imperfect knowledge. This is despite a long tradition of work on argumentation, stretching all the way back to Ancient Greece, that underpins courtroom proceedings, ethical guidelines, political discussion and everyday arguments.

Prof. Raggett will introduce the plausible knowledge notation as a potential solution that covers plausible inferences of properties and relationships, fuzzy scalars and quantifiers, along with analogical reasoning. He will then demonstrate that large language models are good at plausible reasoning, and examine the role of symbolic knowledge in the dawning era of artificial general intelligence. Computers are already better than us at dealing with complex knowledge on a large scale.

We can look forward to collaborative development of knowledge based systems using AGIs working hand in hand with human experts.

Today’s large language models are just the beginning of an intellectual revolution that will have huge and disruptive effects on work, education and play.

Dr. Elias Dahlhaus

Anordnung von Güterwagen in Verteilergüterzügen

Kommen Güterwagen in einem Rangierbahnhof an, müssen sie an ihre Endkunden durch Verteilerzüge verteilt werden. Rangiert werden soll auf dem Rangierbahnhof. Danach soll Rangieraufwand vermieden werden.

Dabei müssen die folgenden Grundsätze beachtet werden:

  1. Das Ziel eines jeden Güterwagens ist ein bestimmtes Gleis.
  2. Jedes Gleis gehört zu einem Bahnhof
  3. Jeder Bahnhof wird von einem Verteilerzug angefahren.
  4. Jeder Verteilerzug beginnt am Rangierbahnhof oder ist ein Anschluss­verteilerzug eines anderen Verteilerzuges an einem bestimmten Bahnhof.

Dies legt nahe, dass die zu verteilenden Güterwagen durch eine Baumstruktur hierarchisch klassifiziert werden können. Die Struktur kann weiter verfeinert werden als in 1. – 4. beschrieben worden ist.

In diesem Vortrag werden Baumstrukturen beschrieben, aus denen Anordnungs­anforderungen an die Güterwagen abgeleitet werden können.

Prof. Dr. Bernhard Humm, Hochschule Darmstadt

Hybride KI mit Machine Learning und Ontologien

Heutzutage wird Künstliche Intelligenz (KI) häufig mit Machine Learning (ML) gleichgesetzt – was viel zu kurz gegriffen ist. Wissensbasierte KI, z.B. mittels Ontologien oder Regelsystemen, haben seit Jahrzehnten einen festen Platz in der KI-Forschung und -Praxis. Hybride Verfahren kombinieren ML mit wissensbasierter KI und vereinen so die Vorteile beider Gebiete.

Im Vortrag werden Verfahren und Anwendungen hybrider KI vorgestellt.

Prof. Dr. Melanie Siegel
Hochschule Darmstadt

Aktuelle Entwicklungen im Wordnet

Wordnets sind semantische Netze von Konzepten, die sich durch Synonyme definieren. Arbeiten an Wordnets gibt es schon seit 30 Jahren. Durch die Initiative „Open Multilingual Wordnets“ wurde die Entwicklung von Wordnets in vielen Sprachen mit interlingual vernetzten Konzepten und mit Open-Source-Lizenzen ermöglicht und gefördert. In diesem Kontext entstand u.a. das deutsche Wordnet OdeNet, das im Ontologenkreis bereits vorgestellt wurde.

Prof. Siegel berichtet über aktuelle Trends und Entwicklungen der offenen multilinguale Wordnets, die auf der Global Wordnet Conference im Januar 2023 in San Sebastian vorgestellt wurden. Sie stellt außerdem die Arbeiten an der Entwicklung eines ukrainischen Wordnets vor.

Prof. Dr. Iryna Gurevych
TU Darmstadt, Informatik, Ubiquitous Knowledge Processing (UKP) Lab

Dein Argument: Sprache mit der KI analysieren

Der Bedarf, menschliche Sprache durch Künstliche Intelligenz (KI) zu verarbeiten, ist ubiquitär: Die Datenmengen, die in der Websphere erzeugt werden, steigen täglich rasant an. Doch um das wertvolle Wissen, welches in diesen Daten versteckt liegt, nutzbar zu machen, benötigt der Mensch maschinelle Unterstützung.

Daher beschäftigt sich das Gebiet des Natural Language Processing (NLP) damit, KI zu entwickeln, welche Sprache verarbeiten kann. Zum Einsatz kommt dies zum Beispiel für kritische Anwendungen wie Fake News Detection oder Hate Speech Detection in sozialen Medien.

Frau Prof. Gurevych beleuchtet in diesem Vortrag anhand des Beispiels Argument Mining, wie moderne KI-Algorithmen große Datenmengen aufbereiten und mit Hilfe statistischer Lernverfahren effektiv Argumente aus Textdatenbanken extrahieren. Außerdem stellt sie die Entwicklungen in der neuesten NLP-Forschung dar – mit einem Schwerpunkt auf aktuellen Herausforderungen und Potenzialen für Wissenschaft und Gesellschaft.

Sabahattin Cakiral, OntoWorlds

Semantik und Ontologie aus der Perspektive eigener praktischer Lebenserfahrungen

Sabahattin stellt vor, wie er aus der Informatik und Elektrotechnik zur Semantik und Ontologie kam, um sowohl in privaten, sozialen und geschäftlichen Bereichen praktische Einsätze der semantisch ontologischen Ansätze zu wagen.

Der Vortrag hat keinen wissenschaftlichen Anspruch, zeigt aber dass Semantik und Ontologie einem größeren Publikum besser zugänglich gemacht werden sollte, um ihnen einen einfacheren Umgang mit der höheren Komplexität der neuen Zeit und seiner Technologien zu gewährleisten.

Bernhard Fisseni (Universität Duisburg-Essen)
Deniz Sarikaya (Vrije Universiteit Brussel)
Bernhard Schröder (Universität Duisburg-Essen)

Frames in mathematischen Beweisen

Das Frame-Konzept wurde in der Künstlichen Intelligenz, Kognitionswissenschaft und Linguistik entwickelt und hat in letzter Zeit wieder vermehrt Interesse unter Philosoph:innen und Wissenschaftstheoretiker:innen gefunden. Jüngst gab es auch Versuche, mathematische Beweise mithilfe von Frames zu modellieren. Diese Versuche gehen von einer Unterscheidung zwischen strukturellen und ontologischen Frames aus. Strukturelle Frames modellieren Erwartungen an Beweismethoden sowie Bestandteile von Beweisen und deren Beziehungen. Ontologische Frames erfassen mathematische Strukturen und typische referierende Ausdrücke in natürlicher Sprache oder Formelnotation.

Im Vortrag werden einerseits kognitive Aspekte des Frame-Konzepts im Hinblick auf den Erwerb von Beweistechniken und andererseits sprachliche Aspekte des Produzierens und Lesens von Beweistexten diskutiert. Wir werden außerdem eine rationale Rekonstruktion des Perspektivwechsels zwischen Notations- und Semantikaspekten geben, die zur Einführung der Null (und negativer Zahlen) führt. Ferner werden wir ein weiteres Beispiel für solche Notationsaspekte in Bezug auf die Entwicklung der Booleschen Logik geben, in der die Notation und Symbolmanipulation bisweilen gegenüber ontologischen Erwägungen im engeren Sinne primär zu sein scheint.

Durch die einheitliche Betrachtung der Interaktion struktureller und im engeren Sinne ontologischer Frames wird eine strenge Trennung zwischen beiden Ebenen aufgehoben.

Literatur:

Alexander Zender

OMA-ML: Effektives Machine Learning einfach gemacht

Machine Learning ist in aller Munde. Aber effektive Machine Learning entwickeln ist anspruchsvoll und erfordert jahrelange Erfahrung.

In diesem Vortrag zeigt Alexander Zender, wie Machine Learning einfach gemacht werden kann, und was das alles mit Ontologien zu tun hat.

Eine etwas tiefer gehende Vorstellung vom Thema kann man sich hier verschaffen:

Hier finden Sie die:

Prof. Dr. Jens Braband, TU Braunschweig und Siemens Mobility GmbH

KI und Zuverlässigkeit

Seit Jahren gibt es einen großen Hype um künstliche Intelligenz. Dennoch gibt es bislang kein System, das vollständig automatisiert sicherheitsrelevante Entscheidungen treffen kann. Zwar gibt es in der Automobiltechnik einige Fortschritte. Diese betreffen aber entweder Assistenzsysteme oder sehr begrenzte Einsatzszenarien, z.B. auf der Autobahn bei geringer Geschwindigkeit und gutem Wetter. Für die Automatisierung bei der Bahn ist es jedoch wichtig, Algorithmen zu haben, die unter allen Betriebsbedingungen automatisch sicherheitsrelevante Entscheidungen treffen können. Auch deshalb, weil dies mit konventioneller Technik, z. B. bei fahrerlosen U-Bahnen, bereits erlaubt ist.

Zum einen sind gängige Verfahren der künstlichen Intelligenz für Menschen nur schwer nachvollziehbar. Zum anderen sind auch die Daten, die verarbeitet werden sollen oft sehr hoch-dimensional und die Umgebungsbedingungen komplex. Zusammen eine nur schwer zu durchdringende Aufgabe.

In einer Studie in Form eines Studentenwettbewerbs, unter Leitung von Prof. Dr. Braband, wurde versucht neue Wege und Ansatzpunkte zu finden. Dabei wurde versucht, die Problemstellung so zu wählen, dass sie einerseits möglichst einfach, andererseits aber auch nicht trivial ist, so dass die wesentlichen Probleme der maschinellen Lernanwendungen für sicherheitsrelevante Entscheidungen deutlich werden, und gleichzeitig störende Nebeneffekte gering bleiben. Die wesentlichen Ergebnisse dieser Studie, wird er in diesem Vortrag erörtern.

Prof. Dr. rer. nat. Thomas Hoppe
Hochschule für Technik und Wirtschaft Berlin
Fraunhofer-Institut für offene Kommunikationssysteme (FOKUS)

Philosophische Untersuchungen von Ontologien – Erste Überlegungen

Ludwig Wittgenstein ist weit bekannt durch seinen 'Tractatus', der sich in die Philosophie der idealen Sprache eingliedert.

Die Kommunikation von Menschen aber ist selten ideal. Wir nutzen erlernte Synonyme oder kreiieren sie, umschreiben Konzepte, ja wir erfinden mitunter neue Begriffe; wer hat nach solchen nicht schon mal gegoogelt?

Der späte Wittgenstein wandte sich in seinen 'Philosophischen Untersuchungen' der normalen Sprache zu. Ich bezeichne diese mitunter als 'gelebte Sprache', denn was ist schon normal. Seine Arbeit wirft interessante Fragen hinsichtlich unseres Interesses auf Weltwissen in Form von konzeptuellen Modellen oder Ontologien zu modellieren.

Dieser Vortrag stellt einige Gedanken dar, ob und unter welchen Umständen uns dies gelingen kann.

Lukas Kaupp

Entwicklung der kontext-bezogenen Fehlerdiagnose

Maschinen bilden weithin geschlossene Silos in denen Know-How verschiedener Hersteller separiert vorliegt. Diese Segregation von Systemen verhindert eine Integration wie von Industrie 4.0 vorgesehen und erschwert gleichzeitig die Fehlerdiagnose.

In der heutigen Zeit, kommen spezialisierte Teams der Hersteller in der Fehlerdiagnose zum Einsatz, um die Fehler einer Maschine zu analysieren. Dieser Fokus auf eine Maschine in einer immer stärker vernetzten Umgebung berücksichtigt jedoch nicht die neu entstehenden Abhängigkeiten.

Hierbei wird der Kontext der Produktionsumgebung in dem ein Fehler passiert vernachlässigt. Die neu entstandenen Abhängigkeiten zwischen Maschinen werden in Zukunft durch den steigenden Automatisierungsgrad und Vernetzung eine verstärkte Rolle spielen.

Die kontext-bezogene Fehlerdiagnose ist ein ganzheitliches Konzept, von der dedizierten Erhebung und Extraktion von Kontext-Information, über die Nutzung in mathematischen Modellen bis hin zur Einbindung des Menschen mit Hilfe Kontext darstellender Visualisierungen.

Die aktuelle Forschung in der Fehlerdiagnose konzentriert sich aktuell eher auf wenige Variablen innerhalb abgeschlossener (Einzel-)Systeme. Auch die in der Forschung vorherrschenden Datensätze spiegeln dies durch ihre Simplizität wieder.

Der Vortrag beleuchtet auf verschiedenen Ebenen die Konzepte der kontext-bezogenen Fehlerdiagnose und geht dabei anekdotisch auf die Hindernisse aktueller Forschung im Industrie 4.0-Umfeld ein.

Prof. Dr. Johannes Busse

Evaluation von Ontologien

Ontologien sind Terminologien, die besonders weitgehend formal-logisch modelliert wurden. Ontologien formalisieren nicht nur Begriffe, sondern normieren sie auch.

Wenn Wittgenstein recht hat, dass die Grenzen meiner Sprache die Grenzen meiner Welt bedeuten, greifen Ontologien in Denken ein.

Es stellt sich die wissenschaftstheoretische Frage, wie wir die Wahrheit oder Angemessenheit einer Ontologie beurteilen können.

Marcel Wienöbst

Algorithmen für kausale Inferenz

Mit Ursprüngen in verschiedenen Disziplinen (Sozial-, Gesundheits- und Wirtschaftswissenschaften, Informatik, Mathematik, Statistik) ist in den letzten 30 Jahren das Forschungsfeld "Kausale Inferenz" entstanden.

Die zentrale Fragestellung ist dabei ohne das Durchführen von Experimenten (wie z.B. randomisierten Studien) kausale Zusammenhänge auf Basis von Daten zu erkennen und zu quantifizieren.

Dieser Vortrag soll einen Überblick darüber geben in welchen Situationen, unter welchen Annahmen und mithilfe welcher Methoden dies möglich ist. Ein besonderer Fokus wird dabei auf die graphbasierten kausalen Modelle gelegt, welche von Judea Pearl popularisiert wurden, und die algorithmischen Probleme, die in diesem Zusammenhang auftreten.

Prof. Dr. Dietrich Albert, Universität Graz

Grundlagen und Anwendungen der Kompetenz-basierten Wissensraumtheorie

Die Wissensraumtheorie (Knowledge Space Theory, KST) ist verhaltens-orientiert und bezieht sich auf beobachtbare Ereignisse; die KST wurde als Verallgemeinerung von Halbordnung und Verband durch Jean-Paul Doignon und Jean-Claude Falmagne seit 1985 entwickelt und im adaptiven Lehr-/Lern-System ALEKS angewendet (https://www.aleks.com/).

Die Kompetenz-basierte Wissensraumtheorie (Competence based Knowledge Space Theory, CbKST) ist eine Erweiterung der KST und schließt nichtbeobachtbare Entitäten wie Kompetenzen ein. Die CbKST wurde maßgeblich in den Arbeitsgruppen von Prof. Albert an den Universitäten Heidelberg und Graz entwickelt, erweitert und angewendet.

Dementsprechend kommen zur Sprache:

Rigo Wenning

Ein standardisiertes Wissenssystem für eine Kreislaufwirtschaft

Der Schutz unserer Lebensgrundlagen wird ein immer drängenderes Problem. Ein wichtiger Aspekt dabei: die Wiederverwertung von Rohstoffen. Dafür ist es notwendig, die Materialien kategorisieren, kennzeichnen und zurückverfolgen zu können. Aber auch: Informationen zu diesen Materialien bereit zu stellen und über Alternativen zu informieren. Bei den komplexen und branchen-übergreifenden Lieferketten, wie sie heute die Regel sind, eine wirkliche Herausforderung.

Um diese Herausforderung anzunehmen arbeiten GS1 (Ein Netzwerk von Organisationen, die weltweit Standards für Prozesse und Kennzeichnungen erarbeiten und pflegen) und das W3C (Eine Organisation, die weltweit Standards für die Kommunikation im Internet erarbeitet und pflegt) eng miteinander zusammen, um die Standards bereit zu stellen, die für diese Mammut-Aufgabe das Fundament legen: Nomenklaturen, Codierungen, Taxonomien und Ontologien um ein Informations-Netzwerk möglichst reibungsarm betreiben zu können.

Noch ist viel zu tun! Rigo Wenning berichtet über Herausforderungen und was bereits erreicht werden konnte.

Grundlage seines Vortrags bildet das Papier:

Dr. Joachim Paul

KI – Kybernetik – Maschinenethik
Versuch einer Reflexion jenseits von Hype und Horror

Der Begriff Künstliche Intelligenz und seine Anverwandten tragen schon seit Jahren alle Charakteristika eines gehypten Narrativs. Dabei wurden und werden einige Vorannahmen und Hypothesen als Tatsachen behandelt und entweder nur unzureichend reflektiert oder gar völlig vernachlässigt.

Der Beitrag versucht, über die Wiedereinbeziehung von Erkenntnissen insbesondere aus der Kybernetik Standpunkte jenseits der Polarität von Hype und Horror zu entwickeln, die den menschlichen Konstrukteuren und Nutzern von KI ihre zwischenzeitlich abhanden gekommene Souveränität zurückgeben könnten.

(So man das will …)

Tassilo Weller

Prinzipien eines Semantic Desktop

Für eigene Zwecke hat Herr Weller einen Semantic Desktop entwickelt. Dieser erlaubt es Daten und Medien unterschiedlichster Art miteinander zu verknüpfen. Vor allem aber: assoziativ in diesem Netz aus Verknüpfungen zu navigieren und so schnell und einfach wiederzufinden was man sucht.

Am Beispiel von funktionalen Erweiterungen an diesem Tool wird Herr Weller einige der Ideen und Prinzipien erläutern, die seinem Werkzeug zu Grunde liegen.

In einem Beispiel wird es darum gehen, nicht nur ein bestimmtes Video wieder zu finden, sondern darin eine bestimmte Stelle - und diese dann auch gleich abspielen zu können. Insbesondere Interessant ist so etwas z.B. für Video-Mitschnitte von Vorträgen oder Diskussionen.

Dr. Norbert Spangenberg

Der leibhaftige Mensch, dass Cotard-Syndrom und die Rechenmaschine

Angesichts der ungeahnten Fähigkeiten moderner Computer scheint die Grenze zwischen menschlichem Vermögen und demjenigen von Computern zu verschwimmen. Technik generell stellt eine Projektion menschlicher Organe dar, Freud nannte daher den Menschen ironisch einen Prothesen-Gott.

In der Neuzeit geht es vor allem auch um den Versuch, die Fähigkeiten des menschlichen Gehirns zu imitieren. Arnold Gehlen sprach in diesem Zusammenhang von der Tendenz zur Zerebralisation.

Die Geister, die wir riefen, werden wir nun allerdings schwer wieder los. Günter Anders sprach in diesem Zusammenhang von prometheischer Scham und spielte darauf an, dass der moderne Mensch sich im Vergleich zur technischen Perfektion von Maschinen als fehlbar, den eigenen Schwächen ausgeliefert und vor allem auch an die Bedürfnisse des Leibes gefesselt empfindet, als sei er nur noch eine Maschine zweiter Klasse. Damit wird eine zweite Richtung vorgegeben, dass technische Geräte ins Körperbild assimiliert werden, um deren Perfektion nachzuahmen. So begann die Neuzeit z. B. mit Descartes mit einer maßlosen Übertreibung des Maschinengedankens.

Als Psychoanalytiker bin ich als eine Art Spürhund darauf spezialisiert, menschliche Verhaltensweisen auf damit verbundene verdeckte Ängste zu dechiffrieren. Das Rechnen ist das Ergebnis einer Fluchtbewegung, da der Mensch als Mängelwesen ursprünglich ein Fluchttier war. Es folgt einer unbewussten Magie, nämlich archaische Ängste von Menschen, die sich den Naturkräfte noch total ausgeliefert gefühlt haben, zu bannen. Den Weg von dem ungefilterten Erleben der gefährlichen Wildheit bis zum gezähmten Rechenmodell der Welt möchte ich nachzeichnen. Damit kann auch deutlich gemacht werden, dass das Wesen des Menschlichen nicht das Denken und das Bewusstsein ist, sondern das Erleben angesiedelt an der Schnittstelle zwischen Körper und Geist.

Prof. Dr. Michael Mielke

Studio im Campus 4.0 für Präsentation der Zukunft

Der Campus 4.0 ist eine Kooperationsplattform die Von DB Training entwickelt wurde und eingesetzt wird. DB Training ist ein Tochterunternehmen der Deutschen Bundesbahn, in dem Ausbildungs- und Trainingsaktivitäten der Deutschen Bundesbahn gebündelt werden.

Campus 4.0 dient nicht nur als Veranstaltungsraum, sondern fügt Funktionalitäten hinzu um Kreativität und das Finden von Lösungen zu unterstützen.

Stefan Holtel, PricewaterhouseCoopers

Todesstrafe für Roboter?
Zur Verantwortung Künstlicher Intelligenz

Am 27. September 2017 verlieh Saudi-Arabien dem Roboter Sophia die Staatsbürgerschaft. Drei Jahre später verkündete ein US-Gericht, dass der Künstlichen Intelligenz (KI) Dabus kein Patent zugesprochen werden darf.

Ob automatisch erzeugte Suchlisten bei Google, Fahrten mit dem Roboterauto Tesla oder Menschenjagden mit der Militärdrone Kargu, immer stellt sich dieselbe Frage: Wer trägt die Verantwortung für den Einsatz von KI? Mögliche Antworten bleiben vage, aber wir werden ihr immer weniger ausweichen können.

Stefan Holtel doziert und publiziert zu den Chancen und Risiken der digitalen Transformation für Organisationen. Im letzten Jahr ist von ihm erschienen:

Prof. Dr. Johannes Busse,
(HAW Landshut)

GenDifS

Selbst für Praktiker, die in formaler Logik geschult sind, ist es schwierig und fehlerträchtig, Ontologien “zu Fuß” (z.B. in Protegé) anzulegen und zu pflegen.

GenDifS ist ein Verfahren und ein Tool, um dies weitgehend zu automatisieren; zumindest für Ontologien, die bestimmte Kriterien einhalten.

Dabei wird die so erzeugte Ontologie durch den gesamten Entwurfs-Prozess visualisiert.

Infos dazu:

Oren Halvani, Fraunhofer SIT Darmstadt

TAVeer: Ein robustes und themenagnostisches Verfahren zur Verifikation von Schreibstilen

Ein zentrales Problem, das seit vielen Jahren im Bereich der digitalen Textforensik erforscht wird, ist die Frage, ob zwei Dokumente vom selben Autor verfasst wurden. Die Autorenschaftsverifikation (AV) ist ein Forschungszweig in diesem Bereich, der sich mit dieser Frage beschäftigt.

Im Laufe der Jahre haben die Forschungsaktivitäten im Zusammenhang mit AV stetig zugenommen, welche zu einer Vielzahl von Ansätzen geführt haben, die versuchen, dieses Problem zu lösen. Viele dieser Ansätze nutzen jedoch Merkmale, die mit dem Thema der Dokumente zusammenhängen oder davon beeinflusst sind. Daher kann es versehentlich passieren, dass ihre Verifikationsergebnisse nicht auf dem Schreibstil (dem eigentlichen Fokus von AV), sondern auf dem Thema der Dokumente basieren.

Um dieses Problem zu adressieren, schlagen wir einen alternativen AV-Ansatz vor, der nur themenunabhängige Merkmale in seiner Klassifikationsentscheidung berücksichtigt.

Zusätzlich stellen wir eine Post-hoc-Interpretationsmethode vor, die es erlaubt zu verstehen, welche besonderen Merkmale zur Vorhersage der vorgeschlagenen AV-Methode beigetragen haben.

Um die Leistungsfähigkeit unserer AV-Methode zu evaluieren, haben wir sie mit acht konkurrierenden Baselines (einschließlich dem aktuellen Stand der Technik) auf vier anspruchsvollen Datensätzen verglichen. Die Ergebnisse zeigen, dass unser Ansatz in zwei Fällen alle Baselines übertrifft (mit einer maximalen Genauigkeit von 84 %), während er in den anderen beiden Fällen genauso gut abschneidet wie die stärkste Baseline.

Hermann Bense,
Vorstandsvorsitzender der textOmatic AG

Finden ohne zu suchen: Regelbasierte KI informiert automatisiert über relevante wissenschaftliche Veröffentlichungen

Referenzen für eigene Veröffentlichung oder für die eigene Forschungstätigkeit suchen? Oft ist das eine mühsame Aufgabe. Die von der textOmatic (AG) entwickelte rOb.by -App kann dabei einen großen Teil der Arbeit abnehmen.

Folgende Fragen werden angesprochen:

Tabea Hein,
Stadt Frankfurt am Main, Koordinierungsstelle Verwaltungsstrukturreform

Künstliche Intelligenz für die Smart City –
Potenziale und Herausforderungen

„Künstliche Intelligenz (KI)“ und „Stadtverwaltung“ sind Begriffe, die vielleicht auf den ersten Blick nicht unbedingt in Korrelation stehen. Als Co-Autorin der Handreichung „Künstliche Intelligenz für die Smart City Handlungsimpulse für die kommunale Praxis“ unternimmt Tabea Hein trotzdem den Versuch, beide Bereiche aufeinander zuzuführen und insbesondere Kommunen Mut zu machen, sich mit dem Thema „KI“ zu beschäftigen. Sie rät, sich jetzt nicht nur mit der hinter dem Begriff liegenden Technik vertraut zu machen, sondern auch zu einer Auseinandersetzung mit den kritischen Faktoren, wie Ethik, Transparenz, Ängsten und Regulierung.

KI bietet vielfältige Chancen, Prozesse zum Wohl der Kommunalverwaltung und der Stadtgesellschaft zu verbessern. Viele Lösungen sind schon durch andere Branchen erarbeitet und können teils mit wenigen Anpassungen übertragen werden. Bereits umgesetzte Anwendungsbeispiele und Anregungen zu neuen Ideen finden sich im Buch wie in ihrem Vortrag.

Rigo Wenning, Justitiar, W3C/ERCIM

Semantics for Data Value Chains:
Vom dummen zum intelligenten Data Ware House

Die Gesellschaft digitalisiert sich und bringt immer mehr Daten hervor. Die Kombination und Analyse von Daten können zu bahnbrechenden neuen Erkenntnissen führen. Deswegen wird den Daten ein hoher Wert zugeschrieben.

Dem stehen die Gefahren von Machtkonzentration und -missbrauch durch die Kontrolle über die Datenhaufen gegenüber. Der Datenschutz will, dass wir weniger Daten sammeln.

Der Vortrag argumentiert, dass wir mehr Daten sammeln müssen, um besser, ethischer und nachvollziehbarer zu den bahnbrechenden Erkenntnissen zu kommen.

Prof. Dr. Bernhard Humm, Hochschule Darmstadt

Künstliche Intelligenz – Fluch oder Segen?

Künstliche Intelligenz (KI) ist aktuell in alle Munde: Regierungen und Unternehmen richten ihre Technologiestrategien auf KI aus, Medien berichten über bahnbrechende Erfolge sowie gravierende Umwälzungen am Arbeitsmarkt, Hollywood reizt mit Visionen und Dystopien. Was steckt hinter KI-Technologien? Was können wir davon erwarten – positiv wie negativ? Das möchten wir gemeinsam diskutieren.

Bernhard Humm beschäftigt sich seit über 30 Jahren mit KI, forscht und entwickelt KI-Anwendungen für die Praxis.

Christian Fillies, Semtation GmbH

Semantische Anreicherung von Named Entities durch Taxonomien zur Unterstützung von Denkmalschutzprozessen

Unspezifische „Keyword Extraktion“ und „Named-Entity- Recognition“ liefern zunächst wenig zufriedenstellende Ergebnisse auf Business-Dokumenten im Unternehmensalltag, wenn sie nicht domänenspezifisch trainiert werden. Am Beispiel zeigen wir, wie man mit sehr geringen Investitionen in Begriffsysteme, Taxonomien und Ontologien die Dokumente im SharePoint d.h. auch in jedem Microsoft Team für das Wissensmanagement besser strukturieren kann. Mit spaCy und .msg Holmes kommen wir auf die nächste (kompatible) Ebene, wenn wir auch Open Source-Komponenten einbinden.

Der vorgestellte Use Case bezieht sich auf die Einführung eines Vorgangsmanagement für den Denkmalschutz. Einige sehr wissensintensive Prozesse müssen auf teilweise Jahrzehnte alte Unterlagen zugreifen, die meist unstrukturiert abgelegt wurden. Es handelt sich dabei sowohl um Vorgangsdaten als auch um historische bzw. architekturgeschichtliche Dokumente.

Anatol Reibold

Deep Learning: Von mysteriösen Hype zum verlässlichen Freund

Deep Learning ist in den letzten Jahren fast zu einem Modewort geworden. Gemeint ist damit aber eigentlich nicht der Lernprozess selbst, sondern künstliche Neuronale Netze, mit einem erhöhten Komplexitätsgrad. Diese Komplexität bringt einerseits eine höhere Leistungsfähigkeit mit sich, andererseits sind damit aber auch eine Reihe von Stolperfallen verbunden.

Neuronale Netze sind eine Technologie, die eigentlich in Konkurrenz zu ontologischen Lösungs-Ansätzen steht, sie hat aber weite Verbreitung gefunden. Und sie besitzt das Potential, ontologische Ansätze zu ergänzen und zu bereichern.

Anatol Reibold wird uns deshalb einen Blick in diesen Bereich anbieten und hat sich dazu die folgende Agenda vorgenommen:

Hermann Bense

Sind RDF und Labeled Property Graphs hinreichend für die Entwicklung von Semantic Web Anwendungen?

Hermann Bense wird sich in seinem Vortrag mit den folgenden Fragen beschäftigen:

Prof. Dr. Michael Fuchs

Semantic Web meets Live Long Learning – das Semantic Qualification Web

Zwanzig Jahre, nachdem Tim Berners Lee das Semantic Web erfunden hat, ist es still um die intelligenten Agenten geworden.

Nach einem Erfahrungsaustausch in Expertenkreisen, ist die klassische Künstliche Intelligenz (KI), die auf Ontologien basiert, nicht richtig auf Touren gekommen, weil es zu wenig Bereitschaft gab, um das Semantic Web (abstrakt gesehen eine globale Verbund-Ontologie) mit den damaligen Mitteln mit aufzubauen. Heute denken einige, dass KI gleich Maschine Learning (ML) ist. Die Semantic Web Ontologie ist in Vergessenheit geraten, obwohl viele geniale Ideen, Methoden und Technologien heute noch genutzt werden (teilweise ohne das mit dem Semantic Web in Verbindung zu bringen).

Ein junges Forschungs-Team würde aber gerne das Live Long Learning mit der damaligen Idee von Tim Berners Lee unterstützen. Leider hat sich die Bereitschaft zum Bauen eines Semantic Web nicht wirklich verbessert, aber das explizite Wissen, um eine dynamische Ontologie in diesem Bereich aufzubauen, ist in schriftlicher Form vollständig vorhanden. Warum nutzen wir dann nicht die Stärken der neuen KI (gleichzeitig ist es auch die alte KI, denn ML gab es schon in Schachcomputer-Zeiten), um das explizite Wissen der Bildungslandschaft in eine Semantic Qualification Web Ontologie zu transformieren?

Genau darum geht es in dem Vortrag von Prof. Dr.-Ing. Michael Fuchs, nämlich der herausfordende Aufbau des Semantic Qualification Web, bestehend aus Thesauri, Ontologien, Taxonomien ohne Beteiligung von Bildungsanbietern nur mit Hilfe von sogenannten Data Science-Methoden …

Prof. Dr. Thomas Bernhard Seiler

Wer ist das Ich und wie ist es entstanden?

Im Handeln und Denken des Menschen hat die Vorstellung, ein eigenständiges von anderen abgetrenntes Ich zu sein, einen besonderen Platz und grundlegende Funktionen. Darum werden nicht bloß in psychologischen Theorien Begriffe wie "Ich", "Selbst" und "Identität" folgerichtig mit zentralen Aufgaben belehnt.

Allerdings gehen die Meinungen und Theorien darüber, wie diese Begriffe verstanden werden sollen, weit auseinander.

In seinem Vortrag wirft Bernhard Seiler einige Fragen auf und stellt seine evolutionär erkenntnistheoretische Sichtweise dazu vor.

Boran Gögetap

Wertströme entlang von Wirkungsketten

Eigentlich lassen sich mit Ontologien sowohl statische Strukturen und Abhängigkeiten modellieren, als auch dynamische Prozesse. Der zweite Fall hat bislang allerdings wenig Aufmerksamkeit erfahren.

Produktions-Prozesse, Abläufe zur Erbringung eines Service und die jeweils dazugehörigen kausalen Abhängigkeiten:

Diese Herausforderungen werden von Herrn Gögetap näher beleuchtet.


Unter dem folgenden Link gibt es ein interaktives Beispiel:

Klicken Sie ein Element an (oder Mehrere). Dazugehörige Wirkungsketten werden farblich markiert.

Mi, 24. Juni 2020

Anatol Reibold

Die Zukunft des Ontologenkreises

In den vergangenen beiden Monaten musste der Ontologenkreis leider ausfallen. Grund war die Corona-Epidemie, Ein Treffen wäre unter den gegebenen Umständen nicht zu verantworten gewesen. Auch heute ist ein Ende der Pandemie noch nicht abzusehen.

Wie soll es also weiter gehen mit unserer Veranstaltungsreihe?

In einer Video-Konferenz wollen wir darüber – und über einige weitere Weichenstellungen – beraten. Anatol, der seit über einem Jahr die Organisation unserer Kolloquienreihe übernommen hat, wird dazu Vorschläge machen und zur Diskussion stellen.

Mi, 11. März 2020

Prof. Dr. Karl Erich Wolff

Temporale Begriffsanalyse von feuernden Neuronen

Wie orientieren wir uns? Haben wir Landkarten im Kopf? Wie werden die gespeichert?

Versuche (meist an Ratten) haben gezeigt, dass Ortszellen existieren, die nur feuern, wenn wir an dem betreffenden Ort sind. Der Nobelpreis für Physiologie oder Medizin 2014 wurde vergeben an Forscher, die Gitterzellen gefunden haben, die offenbar dazu dienen, Landkarten anzulegen. Das gleichzeitigen Feuern von Orts- und Gitterzellen verbindet deren Informationen.

Mit Hilfe der Temporalen Begriffsanalyse wird eine Möglichkeit gezeigt, wie allein aus der Kenntnis des gleichzeitigen Feuerns von Orts- und Gitterzellen begriffliche Landkarten erzeugt werden können. Beliebige weitere Informationen können in diese Karten eingebettet werden.

Mi, 12. Februar 2020

Dr. Elias Dahlhaus

Graphenmodelle für Eisenbahninfrastruktur

Die Infrastruktur der Eisenbahn lässt sich in Gleisabschnitte, Weichen, Kreuzungen usw. gliedern. Der Vortrag wird darstellen,

Mi, 11. Dezember 2019

Kai-Uwe Schäfer,
IT-Berater aus Frankfurt am Main

Graphenalgorithmen – von Daten zu Informationen

Die Welt der Datenverarbeitung bewegt sich weg von Mengen und hin zu Netzen. Neuere Anwendungsfälle ziehen ihren Mehrwert nicht mehr aus nackten Daten, sondern aus den Beziehungen zwischen ihnen; soziale Netze sind dafür das prominenteste Beispiel.

Auch Data Science im Allgemeinen und Machine Learning im Besonderen profitieren von stark vernetzten Daten. Ein reicher Kontext gibt den Daten Bedeutung und produziert neue Erkenntnisse.

Der Vortrag erläutert, wie stark vernetzte Daten in einem Graphen gespeichert und analysiert werden können. Eine praktische Demo illustriert die Anwendung von Graphenalgorithmen – ein neues Kapitel der Data Science!

Mi, 13. November 2019

Michael Dembach

Morgenstern = Abendstern = Venus –
Über die Bedeutung von intensionaler Logik für die Wissensrepräsentation mit Ontologien

Gottlob Frege hat zwischen Bedeutung und Sinn unterschieden. Seitdem diskutieren Mathematiker, Logiker und Sprachwissenschaftler, wie der Sinn eines Ausdrucks zu fassen sei. Heute bezeichnet man den Sinn als Intension.

Der Vortrag versucht, die Relevanz dieses Begriffes zu beleuchten, die er für die Erstellung von Ontologien bzw. die Formalisierung von Wissen aus natürlich-sprachlichen Quellen hat.

Mi, 16. Oktober 2019

Hermann Bense (Dortmund)

Neue Aspekte des Conceptual Metamodeling

Im Vortrag werden die zwei neuen Attribut-Typen „Class-Properties“ und „Meta-Class-Properties“ eingeführt. Diese ermöglichen es, die Modellierung von Klassen und Meta-Klassen in Ontologien zu vereinfachen und Fehler wie die sogenannten „Layer-Mistakes“ zu vermeiden.

Ferner wird gezeigt, dass man im Vergleich zu anderen Modellierungsmethoden wie UML mit nur zwei Abstraktionsebenen auskommt.

Mi, 11. September 2019

Dr. Elias Dahlhaus

Logik der Eisenbahn-Sicherungstechnik

Die Bahn betreibt einen hohen Aufwand, um den Zugverkehr sicher zu gestalten und Unfälle zu vermeiden. Bei den heute gefahrenen hohen Geschwindigkeiten dennoch eine gute Auslastung der Bahntrassen zu erreichen, ist eine Herausforderung. Der Vortrag stellt die traditionellen Sicherungsmaßnahmen dar und stellt ihnen moderne Verfahren und deren Logik gegenüber.

Mi, 14. August 2019

Gregor Seiler, ETH Zürich, Institute of Theoretical Computer Science

Public-Key: Kryptographie und Quantencomputer

Die public-key Kryptographie stellt unter anderem Methoden bereit, mit denen sich zwei fremde Parteien über einen unsicheren Kanal, z.B. das Internet, auf einen gemeinsamen geheimen Schlüssel einigen können, und zwar so, dass ein mithörender Angreifer den Schlüssel nachher nicht kennen kann. Den Schlüssel können die beiden Parteien dann benutzen, um Nachrichten sicher verschlüsselt auszutauschen.

Im ersten Teil des Vortrags werde ich das wichtigste Schlüsselaustausch-Verfahren, genannt ECDH, vorstellen. Die Sicherheit von ECDH basiert, wie die aller anderen bekannten solchen Verfahren auch, auf der Unlösbarkeit eines bestimmten mathematischen Problems. Für heute verfügbare Computer ist die Schwierigkeit dieses Problem gut untersucht. Auf der anderen Seite wissen wir aber, dass das Problem für eine neue Klasse von Computern, den Quantencomputern, relativ leicht zu lösen ist und ECDH deshalb unsicher gegenüber diesen womöglich bald existierenden Computern ist.

Im zweiten Teil des Vortrags werde ich auf die Bedrohung durch Quantencomputer eingehen und einen Einblick in den aktuellen Forschungsstand zu alternativen quantensicheren kryptographischen Verfahren geben.

Mi, 19. Juni 2019

Lothar B. Blum, Dipl.-Designer

Modelle und Modellierungsprozesse im User Experience Design

In den vergangenen Jahren wurden die nutzerzentrierten Methoden des User Experience (UX) Designs immer wichtiger für erfolgreiche Softwareentwicklung. Einige davon werden aus theoretischer Sicht und anhand von Beispielen aus der Praxis erläutert.

Darüber hinaus wird der Versuch unternommen, diese Methoden in Beziehung zu setzen mit den Erkenntnisgegenständen und Vorgehensweisen der Ontologie.

Mi, 15. Mai 2019

Prof. Dr. Melanie Siegel, Hochschule Darmstadt

Sentimentanalyse für die deutsche Sprache

Bei der Sentimentanalyse geht es darum, aus Social-Media-Daten und Nutzerforen automatisch statistische Informationen darüber zu extrahieren, was die AutorInnen mögen oder nicht. Das ist z.B. für Firmen relevant, die wissen wollen, wie ihre Produkte auf dem Markt ankommen. Gleichzeitig ist es ein spannendes Forschungsthema.

Die meisten Verfahren dafür werden für die englische Sprache entwickelt. Im Vortrag wird das Forschungsgebiet mit Bezug auf die deutsche Sprache vorgestellt und gezeigt, wie die Inhalte in der Hochschullehre vermittelt werden.

Mi, 10. April 2019

Oren Halvani

Autorschaftsanalyse

Mit zunehmender Digitalisierung in unserer heutigen Zeit entstehen neue Wege der Kommunikation auf Basis von Sprach-, Bild- oder Videobotschaften.

Trotz dieser zählen Texte jedoch nach wie vor zu den primären Informationsträgern.

Texte enthalten gegenüber anderer Dateiformate keinerlei Metainformationen, die eine nähere Auskunft über ihren Ursprung preisgeben.

Die Frage ist also: Welche Person steht hinter dem Text?

Mi, 13. März 2019

Hermann Bense

Ein Ontologie-basiertes Benachrichtigungs-System, mit natürlich-sprachlicher Benutzerschnittstelle

Zentrale Funktion des Systems ist, Benutzer über für sie wichtige Ereignisse zu informieren. Hierzu kann der Benutzer Regeln definieren, die permanent von einer Inferenz-Maschine überwacht werden.

Sowohl die Definition dieser Regeln, als auch die Benachrichtigung des Nutzers, geschieht in natürlicher Sprache. Die Kommunikation kann, in beide Richtungen z.B. per E-Mail, verschiedene Messenger-Dienste oder einem System, wie Siri erfolgen. Z.B.: Schicke mir eine Nachricht, wenn Phil Collins im Umkreis von 100 km von meinem Wohnsitz auftritt, wenn die SAP-Aktie abstürzt, wenn vor meiner Haustür Glatteis ist, wann das nächste Spiel von Darmstadt 98 ist. Zudem können Dialoge, wie z.B. Folgefragen mit dem System geführt werden. Die Kommunikation ist in einer Reihe von verschiedenen Sprachen (zur Zeit 9 Sprachen) möglich.

Zur Beantwortung der Fragen können sowohl kommerzielle Datendienste (deutsche Börse, Wetter-Dienste) als auch öffentliche Quellen, wie Wikipedia herangezogen werden.

Der Vortrag geht auf die Architektur und technische Umsetzung des Benachrichtigungs-Systems ein. Anhand praktischer Beispiele wird die Funktion demonstriert. Teilnehmer, die einen WhatsApp-Account haben, können das System während des Vortrages selbst ausprobieren.
Weblink mit mehr Info: https://robb.ee/NAS/

Mi, 13. Februar 2019

Ralph Schäfermeier

Kontext in der Ontologie

Die meisten Systeme zur formalen Wissensrepräsentation betrachten „Wissen“ als die Summe bekannter Tatsachen innerhalb der Problemdomäne. Als Tatsache wird eine Aussage bezeichnet, der der Wahrheitswert „wahr“ zugeordnet wird. Enthält das System eine Aussage (zum Beispiel „Hans ist Vater von Maria“), dann gilt diese innerhalb des Systems als Tatsache, und zwar unter allen Umständen.

In der Realität ist der Wahrheitsgehalt von Aussagen jedoch oft abhängig von Randbedingungen, die wir unter dem Begriff „Kontext“ zusammenfassen wollen. Der Kontext kann beispielsweise zeitlich sein („Angela Merkel ist Kanzlerin der Bundesrepublik Deutschland“), eine soziale Rolle beschreiben („Hans ist Vater von Maria und Angestellter bei Siemens“) oder einen Blickwinkel bzw. eine Meinung widerspiegeln („Die Krim ist Teil der Ukraine / eine autonome Republik und Teil der Russischen Föderation“). „Kontext“ ist eine Entität, die den Wahrheitswert einer Aussage beeinflusst.

Ein Streitpunkt innerhalb der Ontologiegemeinschaft besteht in der Frage, ob Kontext selbst Gegenstand der Ontologie ist oder als externe Entität behandelt werden soll, welche die Ontologie von außen beeinflusst. In seinem Vortrag gibt Ralph Schäfermeier einen Überblick über den aktuellen Stand der Diskussion und stellt seinen eigenen Standpunkt dar. Im Anschluss stellt er Ansätze zur Darstellung von Kontext in verschiedenen Wissensrepräsentationssystemen vor.

Mi, 16. Januar 2019

Anatol Reibold

Polyduktive Theorie – von C. S. Peirce bis heute

Hat sich mathematische Logik anfangs mit streng logischen Schlussfolgerungen befasst, so hat sich das Feld mittlerweile erweitert. Mittlerweile sucht sie auch nach Wegen, systematisch Hypothesen zu finden, die sich dann in einer logischen Überprüfung bewähren müssen.

C. S. Peirce, eher bekannt für seine Arbeiten zur Semiotik, hat auch hierfür die Grundlagen gelegt, auf die Andere dann weiter aufbauen konnten.

Mi, 12. Dezember 2018

Dr. Johannes Dittmer

Verstehen als unendliche und unabschließbare Aufgabe –
Versuch einer Rekonstruktion von F. Schleiermachers Hermeneutik als einer Kunstlehre des Verstehens mit C.S. Peirce's Semiotik. (Fortsetzung)

Beim Vortrag von Dr. Dittmer im November ist es immer wieder zu Missverständnissen gekommen, im Zusammenhang mit dem Begriff „Interpretant“. Diesen Begriff verwendet Sanders Peirce innerhalb seines Zeichenkonzepts. Es handelt sich dabei um eines von drei Elementen innerhalb seines Konzepts, das einen erreichten Stand im Prozess des Verstehens darstellt. Von daher gesehen ist es selber auch wieder ein Zeichen / Repräsentamen. Gerade dadurch wird der „unendliche semiotische Prozess“ generiert. Und mit gerade diesem Element der Theoriestruktur verbindet sich die Leistungsfähigkeit des Modells. Der „Interpretant“ ist nicht identisch mit dem „Interpreten“.

Herr Dr. Dittmer, wird das Konzept noch einmal erläutern, unter besonderer Berücksichtigung des Begriffs des „Interpretanten“. Danach wollen wir uns Zeit für Fragen und Diskussion nehmen.

Für alle, die sich etwas vorbereiten möchten, steht das Manuskript hier noch einmal bereit:

Mi, 14. November 2018

Dr. Johannes Dittmer

Verstehen als unendliche und unabschließbare Aufgabe –
Versuch einer Rekonstruktion von F. Schleiermachers Hermeneutik als einer Kunstlehre des Verstehens mit C.S. Peirce's Semiotik.

Ausgehend von einer Analyse von Schleiermachers Hermeneutik (Allgemeine Einleitung) geht es um eine Nachzeichnung des Neuansatzes, den er für das Verstehen markiert. Dabei spielt nicht nur die Korrespondenz von Reden und Verstehen, der Textrezeption und der Textproduktion eine Rolle, sondern auch der doppelte Horizont von Sprache und Geschichte als dynamischen Systemen.

Das Moment der Unendlichkeit und der spezifische Charakter beider Referenz-Horizonte führt dann zu einem komplexen Begriff bzw. einem dynamischen Verständnis von Verstehen. Eben dieses kann dann mi t Hilfe der Semiotik von C.S. Peirce terminologisch präziser gefasst werden.

Mi, 17. Oktober 2018

Prof. Dr. Alfred Nordmann

Der Fortschritt des Nichtwissens und die Herausforderungen der Nichtwissensgesellschaft

Das Nichtwissen gilt als Ansporn der Wissenschaften, wenn irgend möglich soll es eine bloße Wissenslücke bezeichnen, die früher oder später geschlossen wird. In den Zeiten einer datenintensiven, beispielsweise auf Simulationsmodelle gestützten und auf Komplexitätssteigerung gerichteten Forschung werden die Wissenschaften zunehmend nichtwissenstolerant.

Auch Regulierungsbehörden, technische Sicherheitskulturen, öffentliche Diskurse lernen, mit Nichtwissen umzugehen. Wenn vor einigen Jahren noch die Zukunft der modernen Industriegesellschaften über ihre "knowledge economies" definiert wurde, ist jetzt eine gesellschaftliche Kompetenz gefordert, sich an den Wissensgrenzen aufzuhalten und auch die Technologien zu verantworten, die intellektuell nicht nachvollziehbar sind.

Diskutiert werden Gründe hierfür, aber auch Herausforderungen und Umgangsweisen für eine demokratische Gesellschaft.

Mi, 8. August 2018

Dr. Philipp Beckerle

Mensch-zentrierte Modelle und Methoden für die Beinprothesenentwicklung

Für die Entwicklung von (robotischen) Beinprothesen ist die Erfahrung der Systeme durch Nutzerinnen und Nutzer entscheidend. Beispielsweise könnten sich diese wünschen, dass sie gar nicht wahrnehmen, statt ihres natürlichen Beins eine Prothese zu tragen. Die Prothese muss dafür viele Bewegungen ermöglichen und sich an die Situationen und sogar an die Absichten der Nutzerinnen und Nutzer anpassen. Und das, möglichst ohne dessen Aufmerksamkeit zu erfordern.

Die Forschungsgruppe „Mensch-Mechatronik-Synergie“ beschäftigt sich mit Modellen und Methoden, um diesem Ideal möglichst nahe zu kommen. Dr. Beckerle leitet die Gruppe und wird uns von den Forschungsansätzen und Ergebnissen seines Teams berichten.

13. Juni 2018

Stefan Holtel

Die Vermessenheit der Denkmaschine:
Wissen in Zeiten Künstlicher Intelligenz

Das Wissen der Menschheit wächst rasant. Seit einigen Jahren produzieren Maschinen immer mehr Daten. Und Künstliche Intelligenz ist angetreten, daraus Wissen zu erzeugen.

Das wirft vertrackte Fragen auf:

Eines ist jetzt schon klar: Antworten werden uns entweder beruhigen oder erschrecken, aber in jedem Fall herausfordern.

In der Diskussion kam das Thema darauf, ob und wann KI die menschliche Intelligenz überflügeln wird. In diesem Zusammenhang verwies Herr Holtel auf Kristian Hammond und sein "Das Periodensystem der KI", das helfen soll, die Komplexität des Themas besser zu verstehen.

16. Mai 2018

Prof. Dr. Rudi Schmiede

Arbeit, Technik und Organisation –
Gedanken zu wechselseitigen Abhängigkeiten und ihren Folgen

Arbeitstätigkeiten, Technikentwicklung und Organisationen stehen in einem komplexen, gleichwohl engen Zusammenhang. Die Debatten darüber sind jedoch oft von einem mangelnden Verständnis der Zusammenhänge geprägt, sowie von einseitigen Erklärungsansätzen (z.B. Technikdeterminismus einerseits, freie Gestaltbarkeit andererseits).

Der Vortrag wird sich an folgender Gliederung orientieren:

Aufsätze zum Thema:

11. April 2018

Prof. Dr. Gerd Döben-Henisch

Ontologie im Engeneering –
Die Herausforderung und Lösungsstrategien

Es gibt heute viele Konzepte für Ontologien. Hier wird davon ausgegangen, dass eine Ontologie eine Struktur meint, die komplementär zu einer bestimmten Sprache definiert wird. Da es sehr viele Sprachen in vielfältigsten Anwendungskontexten gibt, wird hier als Beispiel ein Engineeringskontext gewählt, innerhalb dessen Ingenieure versuchen ein Problem in eine Lösung zu überführen. Die Ingenieure erscheinen hier als Akteure, die ihre Wahrnehmung von Welt zur Sprache bringen. Dazu benutzen Ingenieure mehrere Sprachen simultan. An einem Beispiel wird untersucht, welche implizite Ontologie sie dabei benutzen und wie sich dies in einer algebraischen und dann algorithmischen Versprachlichung auswirkt.

14. März 2018

Prof. Dr. Heinrich Herre

Ontologie der Daten

In dem Vortrag wird eine Top-Level-Ontologie der Daten vorgestellt. Für eine Grundlegung der Data Science ergeben sich verschiedene Aufgaben, die insbesondere die folgenden vier Problemstellungen umfassen.

Schwerpunkt des Vortrags ist die Behandlung des Semantikproblems für Daten (1). Als Rahmensystem für die Begründung einer Datensemantik wird die Top Level Ontologie GFO (General Formal Ontology) verwendet. Daten werden durch drei Bestimmungsstücke spezifiziert: durch eine Eigenschaft (deren Instanzen Attributive genannt werden), durch einen Träger der Eigenschaft, und durch eine Relation, die die Eigenschaft mit dem Träger verbindet. Es wird ferner ein Vorschlag für die Repräsentation von Daten diskutiert. Dieser Vorschlag beruht auf einer ontologischen Analyse des Begriffs eines Datenelements, wie er in dem ISO-Standard 11179 eingeführt wurde.

14. Februar 2018

Matthias Rewald

Wir ersaufen in Daten, dabei dürsten wir nach Wissen  –
Wieviel Information steckt in Daten?

Seit 70 Jahren gibt es eine ausgearbeitete Informationstheorie. Sie bildet die Grundlage für die Auslegung von Telefon- und Funktechnik, Datennetzen, für Datenkompression und Verschlüsselung. Damit ist sie aus der heutigen Daten- und Kommunikations-Technik nicht mehr weg zu denken.

Die Theorie unterscheidet deutlich zwischen Daten einerseits und Information auf der anderen Seite. Aber nur Wenige sind mit diesen Überlegungen vertraut.

Ein Versuch, stärker für das Thema zu sensibilisieren und ein paar Missverständnisse auszuräumen.

17. Januar 2018

Prof. Dr. Melanie Siegel

„OdeNet“ – ein deutscher Beitrag zur „Multilingual Open WordNet Initiative“

WordNet ist ein semantisches Netz, das Wörter in Synonymgruppen („Synsets“) organisiert und diese dann unter semantischen und lexikalischen Gesichtspunkten miteinander verknüpft. Semantische Netze im WordNet-Format werden mittlerweile in zahlreichen Projekten eingesetzt, die sich mit der maschinellen Verarbeitung natürlicher (menschlicher) Sprache beschäftigen. WordNet wurde ursprünglich für die englische Sprache entwickelt und ist kostenlos und öffentlich zugänglich.

In der „Multilingual Open WordNet Initiative“ wurden in einer internationalen Kooperation weitere Netze für eine Reihe von Sprachen entwickelt, die auch untereinander verknüpft sind, so dass sie auch für Übersetzungen herangezogen werden können. Für die deutsche Sprache existierte bislang nur ein kostenpflichtiges und nicht verknüpftes Angebot. Mit OdeNet soll sich das ändern.

Melanie Siegel wird diese deutsche Initiative vorstellen und erläutern, welche Herausforderungen es dabei zu meistern gilt und wie sie angegangen werden.

13. Dezember 2017

Michael Dembach

Ontologie und Semantik

Ontologien beschreiben semantische Zusammenhänge.

In der Sprachwissenschaft stehen sich jedoch konkurrierende Vorstellungen gegenüber, was Semantik eigentlich ist und wie sie sich beschreiben lässt.

Der Vortrag versucht zu skizzieren, welches Semantikverständnis dem Konzept Ontologie zugrunde liegt.

Mi, 8. November 2017

Reinhart Büttner

Torten, Türmchen, Pyramiden, Balken, Bäume, Netz & Pfeil  –
oder Die Hieroglyphen der Informationsgrafik

ein Versuch von Reinhart Büttner.

Reinhart Büttner ist interdisziplinärer Künstler und Theoretiker, beratender Psychologe und Dozent

18. Oktober 2017

Dr. Sabine Bartsch

Multimodale Dokumente

Unter „Sprache“ verstehen wir auf Anhieb, in Worte gefasste, gesprochene oder geschriebene Sprache.

In technischen Dokumenten haben wir es aber regelmäßig auch mit bildlichen Darstellungen zu tun: Diagramme, Schaltpläne, Technische Zeichnungen und ähnliches. Sie sind ein wichtiges Werkzeug der Informationsübermittlung und stellen damit eine mächtige Erweiterung dessen dar, was wir gemeinhin unter Sprache verstehen.

13. September 2017

Prof. Dr. Nina Janich

Die öffentliche Semantik von „Experiment“ –
Arbeitsweisen der Linguistik

Mit welchen Methoden und Ansätzen arbeitet eigentlich die Linguistik?

Am Beispiel des Wortes „Experiment“, seines Bedeutungsspektrums und seiner Rolle in öffentlichen Diskursen wird uns Frau Prof. Janich Einblicke in linguistische Arbeitsweisen geben.

Mi, 12. Juli 2017

Lena Pejic

Warum haben Menschen Vorurteile ?

Der Vortrag geht Fragen nach, wie:

Die folgenden Bücher hatte Lena mitgebracht:

Mi, 28. Juni 2017

Prof. Dr. Karl Erich Wolff

Von "Circa" zur begrifflichen Skalierung

Wir gehen aus von den reichhaltigen Aspekten des Ungenauen und Ungefähren, die Reinhard Büttner am 10. Mai 2017 in seinem Vortrag "Circa" im Ontologenkreis angesprochen hat.

Darauf basierend werden nun Grundideen erkundet, mit denen man in der sprachlichen Praxis das Ungefähre versucht, begrifflich zu fassen. Die zugehörigen pragmatisch ausgewählten kontextuellen Beschreibungen lassen sich oft in formalen Kontexten angeben, die bei der begrifflichen Skalierung verwendet werden. Dadurch erhält man eine sehr flexible Methode zur inhaltlich kontrollierten Repräsentation und Visualisierung von Daten in der gewünschten Granularität.

Mi, 10. Mai 2017

Reinhart Buettner

circa – Genauigkeit und Approximation

Mi, 26. April 2017

Prof. Dr. Bernhard Humm

Clinical Decision Support

Für Ärzte im klinischen Alltag ist es eine große Herausforderung, ständig bezüglich klinischer Studien, neuer Medikamente und Behandlungsmethoden auf dem Laufenden zu bleiben. Informationsdienstleister bieten zunehmend Dienste an, um diesen Informationsbedarf zu decken: Medizinische Literatur, klinische Empfehlungen, Wechsel- und Nebenwirkungen von Medikamenten etc. Im Klinikalltag kommen solche Informationsdienstleistungen heute aber noch selten an.

In dem Vortrag wird ein Ansatz für personalisierte Medizin vorgestellt, bei dem Ärzte Zusatzinformationen passgenau zum aktuell behandelten Patienten erhalten, ohne aktiv danach suchen zu müssen.

Mi, 8. März 2017

Anatol Reibold

Data Science, Maschinelles Lernen und Ontologie

Der Vortrag orientiert sich an der folgenden Agenda:

Mi, 8. Februar 2017

Prof. Dr. Melanie Siegel

Informationsextraktion – Methoden und Anwendungen

Die Mengen an Texten, die täglich produziert werden und gelesen werden müssen, nimmt rasant zu. Mit der automatischen Indexierung ist es schon seit einer geraumen Zeit möglich, Texte zu klassifizieren. Die Informationsextraktion geht darüber hinaus: Texte werden automatisch und gezielt nach Informationen durchsucht, und diese Informationen werden in strukturierter oder sogar visualisierter Form dargestellt. Dabei geht man von gezielten Anfragen an Texte aus, sucht z.B. Informationen über wirtschaftliche Prognosen in Lageberichten großer Firmen oder Anzeichen für einen „Shitstorm“ in sozialen Medien. Google Now erkennt z.B. in E-Mails Terminabsprachen und weist den Nutzer auf den Termin hin.

Dafür reicht es nicht, Stichwörter zu extrahieren, sondern es müssen auch Relationen zwischen Ereignissen/Handlungen und Objekten in Texten erkannt werden – ein Schritt in Richtung Analyse der Semantik.

Mi, 11. Januar 2017

Hermann Bense

Die Komposition, Definition, Benennung und Nummerierung von Begriffen

Hermann Bense beschäftigt sich damit, Begriffe (Englisch: concept) eindeutig zu bezeichnen und zu nummerieren. Dabei geht es auch darum, die Bedeutung eines Wortes über Definitionen zu erschließen und um möglichst große Unabhängigkeit von einer bestimmten Sprache.

Die Nummerierung erfolgt so, dass in der Zahl zu einem Begriff auch alle Teilbegriffe kodiert sind.

Hermann Bense geht davon aus, dass ihm ca. 300-400 Grundbegriffe reichen, um daraus alle anderen Begriffe durch Komposition dieser Grundbegriffe zu erzeugen.

In seinem Vortrag wird er uns erläutern, welche Hürden und Stolpersteine es dabei zu überwinden gilt, welche bekannten Ansätze er dabei betrachtet und wie er alles zu einer Lösung verbindet.

Mi, 9. November 2016

Prof. Dr. Gerd Döben-Henisch

Auf dem Weg zu einer allgemeinen Theorie lernender semiotischer Systeme
(Für biologische und technische Systeme)

Prof. Döben-Henisch forscht schwerpunktmäßig über die Themen „lernende Systeme" und „Mensch-Maschine Interaktion“. Er verbindet beide Themen über das im angelsächsischen Rahmen stark verbreitete Paradigma des „Systems Engineerings (Management)“. Als geeignetes Konzept für die theoretische Beschreibung des Verhaltens von Menschen und intelligenten Maschinen im Engineering Prozessen hat sich dabei der Begriff des „lernenden semiotischen Systems“ herausgestellt. Dadurch lassen sich Themen wie z.B. psychologisch motivierte Verhaltensmodelle, maschinelles Lernen, künstliche Intelligenz, oder kognitive Architekturen innerhalb der normalen Engineeringprozesse als Bestandteil der üblichen Verhaltensmodellierung verorten. Lernende semiotische Systeme kann es in vielen Realisierungsstufen geben. Vom theoretischen Potential her können sie u.a. selbständig im Kontakt mit Menschen in ihrer Umgebung lernen und symbolisch kommunizieren, ohne dass sie in herkömmlicher Weise für ihre Aufgabe programmiert werden müssen.

Den derzeitigen Stand seiner Forschungen – auch in der aktuellen Kooperation mit Institutionen in Südafrika – wird er in diesem Kolloquium mit uns diskutieren.

Vortrag und Diskussion orientieren sich an folgender Agenda:

Mi, 12. Oktober 2016

Prof. Dr. Jan C. Schmidt

Das Andere der Natur. Instabilität als Schlüsselbegriff einer aktuellen Naturphilosophie

Aktuelle Entwicklungen der Natur- und Technikwissenschaften werfen ein überraschend neues Licht auf klassische Brennpunkte der Naturphilosophie. Ein Anderes der Natur zeigt sich: Natur ist Natur, insofern sie zur Instabilität fähig ist. Instabilitäten gelten als Quelle des Werdens und Wachsens, ja als Hintergrund des Lebens.

Angesichts dieser Erkenntnisse eröffnen sich neue Wege naturphilosophischen Denkens. Vielfach kontrovers diskutierte Themen der Wissenschaften können zusammengeführt und verständlich gemacht werden: Selbstorganisation, Zeit, Zufall, Kausalität, Kosmos und Raum, Geist und Gehirn, Technik, Ästhetik, Ethik und Umwelt sowie Wissenschafts- und Technikfolgen.

Zu diesem Themenkomplex hat Prof. Schmidt im letzten Jahr auch ein Buch veröffentlicht:

Mi, 14. September 2016

Stefan Holtel

Ontologien bedrängen Onkologen:
IBM Watson bringt Ärzte in die Bredouille

Seit 2012 schaut Watson Oncology den Medizinern über die Schulter, ein Expertensystem zur Diagnose und Therapie von Krebs. Dafür hat es den Inhalt von ca. 200 Fachbüchern inhaliert und wertet ständig 290 Fachjournale aus. Der Wissenskorpus umfasst mittlerweile 12 Mio. Seiten.

Grundlage für das Verarbeiten der Texte ist eine Ontologie, die sich autopoietisch weiter entwickelt. Watson lernt unentwegt: Einerseits aus eingespeister Literatur, andererseits aus den Dialogen, die es bereits mit den Ärzten geführt hat. Theoretisch repräsentiert das System jederzeit den aktuellen Stand des Wissens.

Tatsächlich begann vor vier Jahren ein Experiment über Ethik und Moral: Das kühle Kalkül der Maschine trifft auf das emotionale Ringen um die Behandlung von Krebspatienten. Delegieren Ärzte ihre Therapieempfehlung bald an Maschinen? Welches Verhältnis entwickelt sich zwischen Onkologen und Software? Welche Kompetenz braucht es, um Denkmaschinen wie Watson Oncology auf Augenhöhe zu begegnen?

Das Unternehmen IBM drückt sich vor der Antwort. Es propagiert die Zukunft der personalisierten Medizin, für die Watson den Durchbruch schaffe. Ein Frage bleibt unberührt zwischen verunsicherten Patienten, überforderten Medizinern und Finanzinteressen der Versicherer und Kliniken: Wer entscheidet wirklich über die Krebstherapie, an der Schwelle zwischen Leben und Tod?

Stefan Holtel publiziert zu den Chancen und Risiken des Einsatzes künstlicher Intelligenz in Unternehmen und Organisationen. In diesem Jahr ist bereits erschienen:

Mi, 13. Juli 2016

Prof. Dr. Nina Janich

Einigungsprozesse in interdisziplinären Projekten

Wenn in einem Projekt Fachleute aus unterschiedlichen Fachgebieten zusammenarbeiten, dann müssen sie sich über ihren nun gemeinsamen Gegenstand austauschen können – trotz ihrer unterschiedlichen Fachsprachen und Terminologien.

Dass eine „gemeinsame Sprache“ aber oft erst mühsam errungen werden muss und was unter einer solchen „gemeinsamen Sprache“ konkret zu verstehen ist, wurde in einer Fallstudie über ein politikwissenschaftliches-physikalisches Projekt untersucht.

Frau Prof. Janich stellt Ergebnisse aus dieser Studie vor.

Mi, 8. Juni 2016

Hermann Bense, Anatol Reibold

Top-Level-Ontologien – Welche gibt es und wozu sind sie gut?

Hermann Bense gibt einen Überblick über Top-Level-Ontologien und stellt die Populärsten von Ihnen vor: Worin unterscheiden sie sich und wo bestehen Gemeinsamkeiten? Außerdem stellt er mit der UMO-Ontologie einen Vorschlag für eine oberste Top-Ontologie vor.

Anatol Reibold wird danach einen Überblick über verschiedene Logiken geben, u.a. Syllogismen, Description Logic und mehr-sortige Prädikatenlogik und aufzeigen, wie man letztere verwenden kann um die UMO-Ontologie zu formalisieren.

Wer sich vorab mit dem Thema beschäftigen will, findet hier noch einige Informationen:

Mi, 11. Mai 2016

Prof. Dr. Gernot Böhme

Zeit sein - zur Ontologie menschlicher Existenz

Es geht um Zeit als Form lebendiger Existenz. Die Zeitlichkeit des Menschen wird in der Regel als Begrenztheit seiner Existenz durch Geburt und Tod gesehen. Dagegen ist jeder Lebensvollzug in sich zeitlich.

Der Vortrag war frei gehalten. Es existiert deshalb kein Manuskript.
Bücher-Auswahl von Prof. Böhme:

Mi, 13. April 2016

Prof. Dr. Thomas Bernhard Seiler

Begriffe: Denkeinheiten oder Spracheinheiten (Fortsetzung)

Wir sind in unserem Denken und Reden auf Begriffe angewiesen. Wir versuchen mit ihnen die Welt zu greifen und uns über sie zu verständigen. Strittig ist, ob man Begriffe eher der sprachlichen Ebene oder eher der kognitiven Ebene zuordnen soll.

Dazu möchte Prof. Seiler einige Thesen vorschlagen, um sie gemeinsam weiter zu diskutieren und zu differenzieren. Eine Auswahl seiner Thesen:

Darauf aufbauend wird Prof. Seiler die Konsequenzen seiner Thesen reflektieren.

9. März 2016

Wolfram Bartussek

OntoVigilance

Ansätze zur automatisierten Erstellung umfassender, minimaler Informationskorpora

10. Februar 2016

Prof. Dr. Bernhard Humm

Ontologien in der Medizin –
und wie man diese nutzen kann

Für kein anderes Fachgebiet existieren so viele kontrollierte Vokabulare, Taxonomien und Ontologien wie für die Medizin und verwandte Life Sciences. Klassifizierte Begriffe umfassen Krankheiten, Symptome, Körperteile, Medikamente, medizinische Verfahren und vieles mehr.

Der Vortrag geht auf diese und weitere Fragen ein.

13.Januar 2016

Prof. Dr. Thomas Bernhard Seiler

Begriffe: Denkeinheiten oder Spracheinheiten ?

Wir sind in unserem Denken und Reden auf Begriffe angewiesen. Wir versuchen mit ihnen die Welt zu greifen und uns über sie zu verständigen. Strittig ist, ob man Begriffe eher der sprachlichen Ebene oder eher der kognitiven Ebene zuordnen soll.

Dazu möchte Prof. Seiler einige Thesen vorschlagen, um sie gemeinsam weiter zu diskutieren und zu differenzieren.

Eine Auswahl seiner Thesen:

9. Dezember 2015

Walter Claassen

Professionelle Informationssuche jenseits des Web

Information ist heute ein selbstverständlicher Bestandteil fast aller professionellen Tätigkeiten. Einerseits zur Steuerung und Dokumentation der internen Produktions- und Dienstleistungs-prozesse, andererseits aber auch als „Rohstoff” der extern eingekauft wird.

In den letzten 50 Jahren sind weltweit eine Vielzahl von Organisationen und Unternehmen entstanden, die Dienstleistungen „rund um die Information“ anbieten. Umsatzzahlen und Zahlen zum Umfang der Datenbestände lassen erahnen, welchen Stellenwert dieser Informationsmarkt mittlerweile erreicht hat.

Der Informationsmarkt, seine Bedingungen, Werkzeuge und Player sind Gegenstand dieses Vortrags.

9. November 2015

Dr. Dirk Hüske-Kraus

Natural Language Generation für medizinische Dokumente

12. Oktober 2015

Dr. Thomas Hoppe

Zertifizierung der Qualität semantischer Anwendungslösungen – Ein Plädoyer

Herr Dr. Hoppe berichtet über Erfahrungen bei der Vermarktung semantischer (insb. Ontologie u. Thesaurus-basierter) Anwendungen.

Anhand von drei Beispielen zeigt er auf wie wir durch Methoden der Statistik, Datenanalyse und Data Science bei der Vermarktung semantischer Technologien von rein qualitativen Marketingaussagen zu messbaren, reproduzierbaren und validierbaren quantifizierten Aussagen gelangen können.

Ziel ist, die Qualität semantischer Lösungen zu erfassen, zu dokumentieren, überprüfbar und vergleichbar zu machen.

14. September 2015

Dr. Joachim Paul

Warum Polykontexturalität? – eine Einführung

Die klassische mathematische Logik hat einen streng hierarchischen Aufbau. Sie duldet weder Widersprüche noch Selbstreferenzen und kommt mit wechselseitigen Abhängigkeiten (Henne-Ei) und unterschiedlichen Standpunkten nur schwer zurecht. Eine schmerzhafte Einschränkung.

Die Polykontexturalitätstheorie beinhaltet eine Erweiterung der klassischen Logik und versucht diese Lücken zu schließen. Praktische Anwendung findet sie u.a. im Bereich der Biologie, bei der Untersuchung natürlicher neuronaler Netze, die sich nicht an die Regeln der klassischen mathematischen Logik halten.

Wer das Thema vertiefen möchte, kann dies tun im Buch Joachim Pauls „TRANS- Reflexionen über Menschen, Medien, Netze und Maschinen. Aufsätze 1996 – 2013” (ISBN: 978-3844255027).

Dort vor allem:

bzw. zu Thema „Transhumanismus” in den folgenden Aufsätzen:

Rezensionen zu diesem Buch finden sich hier und hier.

13. Juli 2015

Klaus Reichenberger

Ontologien und semantische Netze in der Praxis

Anhand von Beispielen, möchte ich, Erfahrungen aus dem Einsatz semantischer Wissensrepräsentationen in Unternehmen mit Ihnen teilen und diskutieren. Dabei werden wir uns mit Fragen beschäftigen wie:

8. Juni 2015

Dr. Ingetraut Dahlberg

Wissensorganisation

Frau Dr. Dahlberg ist eine der Pionierinnen im Bereich der Klassifikation und Wissensorganisation. Ihr besonderes Augenmerk und Interesse liegt dabei darauf, Informationen auch über Fachgrenzen hinweg verfügbar zu machen.

11. Mai 2015

Prof. Dr. Nina Janich

Bis jetzt noch nicht – Zur Temporalität von Nichtwissenskonzepten

An verschiedenen Textbeispielen soll gezeigt werden, wie zentral die temporale Perspektive bei der Kommunikation von bzw. über Nichtwissen ist. Zudem wird die Frage diskutiert, ob die damit markierten Konzeptualisierungen von Nichtwissen im Diskurs womöglich selbst wieder einer bestimmten Chronologie folgen.

13. April 2015

Prof. Dr. Ulrich Schade

Jetzt fangen wir los! – Versprecher und was sie uns über den Prozess der Sprachproduktion verraten

Versprecher sorgen meist erst einmal für Belustigung. Bei näherem Hinsehen tritt aber zu Tage, dass es ganz unterschiedliche Gründe gibt, warum uns ein falsches Wort über die Lippen rutschen kann.

Prof. Schade vom Fraunhofer-Institut für Kommunikation, Informationstechnik und Ergonomie erläutert uns an Beispielen, welche Arten von Versprechern es gibt, und vor allem, was sie uns darüber verraten, wie wir Sprache produzieren.

9. März 2015

Prof. Dr. Melanie Siegel

Die Implementierung japanischer Sprache in Head-Driven Phrase Structure Grammar (HPSG) und was wir damit gemacht haben

HPSG ist ein Grammatikformalismus, mit dem man natürliche Sprachen (wie Japanisch) so nachbilden kann, dass die Interaktion der sprachlichen Ebenen Syntax, Semantik und Pragmatik dargestellt werden kann.

Der Vortrag zeigt auf, wie eine große Grammatik im Laufe mehrerer Jahre und in Kooperation mit Entwicklern von HPSGen anderer Sprachen entwickelt wurde.

Die Grammatik wurde in sprachtechnologischen Anwendungen eingesetzt, die stark auf semantischer Information basieren. Diese Anwendungen werden im Vortrag skizziert.

9. Februar 2015

Hermann Bense

Ontologien als Schlüsseltechnologie für die automatische Erzeugung natürlich-sprachlicher Texte

In den neuen Medien, vor allem im Bereich des Semantic Web, gibt es einen permanent steigenden Bedarf an originären Inhalten und redaktionellen Texten. Dies betrifft sowohl Medienunternehmen als auch Nicht-Medienunternehmen.

Der Großteil der Texte wird heute konventionell von Redakteuren erstellt. Dies gilt auch für Bereiche, in denen Texte recht schematisch und formalisiert auf Basis von Datenbankinformationen oder Exceltabellen erzeugt werden.

In diesem Vortrag wird ein ontologie-gestütztes Verfahren zur Generierung natürlich-sprachlicher Texte vorgestellt, welches auf die für das Semantic Web vereinbarte Konventionen zurückgreift Ziel ist es, Redakteure von der Erstellung von Texten zu entlasten, die in großer Anzahl und sehr schnell erstellt werden müssen und deren Erstellung keine journalistische Arbeit erfordert.

Der Vortrag steht im Rahmen des Buchprojekts: „Corporate Semantic Web„.

19. Januar 2015

Prof. Dr. Thomas Bernhard Seiler

Leistungen und Fallstricke des rationalen Denkens (Fortsetzung)

Nachdem der Vortrag am 10.11. von Thomas Bernhard, wegen der regen Diskussion und der fortgeschrittenen Zeit unterbrochen wurde, wird dieses spannenede Thema nun fortgesetzt. Es wird bei dieser Fortsetzung nun speziell um die noch ausstehenden „Fallstricke des rationalen Denkens” gehen.

Prof. Seiler schrieb dazu: Ich möchte insbesondere zeigen, welche Errungenschaften, aber auch welche Gefahren mit der ontogenetischen, aber auch kultur- und wissenschaftshistorischen Entwicklung des Denkens in und mit Begriffen verbunden sind.

12. Januar 2015

Prof. Dr. Ulrich Schade

Semantische Suche im Bereich der Energieforschungsfürderung

”EnArgus„ ist ein Projekt zur Entwicklung eines zentralen Informationssystems für Energieforschungsvorhaben.

Das Projekt wird vom Bundesministerium für Wirtschaft und Energie gefürdert. Es soll helfen, staatliche fürderpolitik transparenter zu gestalten und die Bewertung von Technologieentwicklungen erleichtern.

In dem Vortrag wird das EnArgus-System in seiner aktuellen Version und in seiner Funktionsweise vorgestellt. Insbesondere wird aufgezeigt, wie eine Fachontologie zur Energieforschung entwickelt und in das System eingebunden wurde und welchen (wichtigen) Beitrag diese Fachontologie für die Funktion des Systems leistet.

Der Vortrag steht im Rahmen des Buchprojekts: „Corporate Semantic Web”.

8.12.2014

Reinhart Büttner

Stadt, Land, Fluss auf elektronisch

Provokante Fragen und Anmerkungen eines Zaungastes.

10.11.2014

Prof. Dr. Thomas Bernhard Seiler

Leistungen und Fallstricke des rationalen Denkens

Prof. Seiler schreibt dazu: Ich möchte insbesondere zeigen, welche Errungenschaften, aber auch welche Gefahren mit der ontogenetischen, aber auch kultur- und wissenschaftshistorischen Entwicklung des Denkens in und mit Begriffen verbunden sind.

13.10.2014

Dr. Frederik Janssen / Prof. Dr. Heiko Paulheim

Intelligente Datenauswertung mit Linked Open Data

Es geht darum Daten die im Internet verfügbar sind ausfindig zu machen und miteinander zu verknüpfen, um so zu neuen Erkenntnissen zu kommen.
Dazu werden zwei Fallstudien vorgestellt und besprochen.

Der Vortrag steht im Rahmen des Buchprojekts: „Corporate Semantic Web”.

8.9.2014

Prof. Dr. Bernhard Humm

Corporate Semantic Web – Wie semantische Anwendungen in Unternehmen Nutzen stiften

Semantische Anwendungen stiften bereits heute in Unternehmen Nutzen, z.B. in den Branchen Telekommunikation, Logistik, Automotive, Tourismus, Bibliotheks- und Verlagswesen. Es erfordert aber besondere Fähigkeiten – technologischer und methodischer Art – erfolgreich semantische Anwendungen zu entwickeln. Dieser Vortrag gibt dazu Hinweise und Empfehlungen.

Er fasst Ergebnisse zusammen, die 2015 in einem gleichnamigen Buch beim Springer Verlag veröffentlicht werden.

14.7.2014

Prof. Dr. Bernhard Thull

Das Tanzarchiv der Pina Bausch-Stiftung

Wie lässt sich Tanz beschreiben und für folgende Generationen aufbewahren, kategorisieren und auffindbar machen, ohne z.B. Stunden von Videomaterial sichten zu müssen?

In einem gemeinsamen Projekt der „Pina Bausch-Stiftung” und des „Institut für Kommunikation und Medien” (IKuM) der Hochschule Darmstadt wurde dies untersucht.

Die Herausforderungen, Missverständnisse und letztlich erfolgreichen Lösungen, hat uns Prof. Thull in seinem Vortrag erläutert.

23.6.2014

Dr. habil. Christoph Lübbert

Verfeinerung eines Ontologie-Schemas durch Konzepte der Formalen Begriffsanalyse

Ein Versuch, zwischen der Sprache der Informatiker für die Formulierung einer „Ontology” und der der Mathematiker zu vermitteln.

16.5.2014

Prof. Dr. Karl Erich Wolff

Begriffsanalytische und modelltheoretische Messtheorie

Mit diesem Vortrag soll die von Erwin Tegtmeier kritisch behandelte modelltheoretische Messtheorie von Krantz, Luce, Suppes und Tversky in den allgemeineren Rahmen der pragmatisch beGründeten und mathematisch formulierten begriffsanalytischen Messtheorie eingebettet werden.
Auch die zugehörigen philosophischen Strömungen vom Empirismus zum Pragmatismus sollen kurz angesprochen und diskutiert werden.

4.4.2014

Prof. Dr. Erwin Tegtmeier

Die modelltheoretische Analyse der Skalierung

Mit der Relativitäts-Theorie kam im 20. Jahrhundert die Frage auf, wie sinnvoll es ist, Eigenschaften zu bestimmen, da sich die ermittelten Größen je nach Referenz-System unterscheiden können. Vielmehr wurde diskutiert sie als Ergebnis eines Messvorgangs zu verstehen und damit nicht als Eigenschaft, sondern als operationale Relation. Prof. Tegtmeier verteidigt in seinem Vortrag den Eigenschaftsbegriff, gegen die operationale Herangehensweise.

5.3.2014

Anatol Reibold

Mehrere Blickwinkel in einem Wissensmodell

Ein verbreitetes Problem in Wissensmodellen ist, dass der selbe Sachverhalt von unterschiedlichen Betrachtern unterschiedlich gesehen wird. Ein gemeinsames Verständnis scheint zuweilen unmöglich oder ist zumindest nicht einfach zu erreichen. In einem Wissensmodell verschiedene Standpunkte nebeneinander zu berücksichtigen und gegebenfalls auch den Prozess, in dem sich Standpunkte verändern, daran wird seit vielen Jahren gearbeitet. Um den Stand der Entwicklung geht es in diesem Vortrag.

5.2.2014

John Flath

Die Arithmetisierung der Syllogistik

8.1.2014

Hermann Bense

Semantische Graphen und Hypertrees -
2 Verfahren zur Visualisierung ontologischen Wissens

Herr Bense wird unter anderem über folgende Punkte sprechen:

Weitere Links des Vortragenden:

4.12.2013

Wolfram Bartussek

Ein Vorschlag für einen interdisziplinären
Ontologie-Begriff

Salopp gesagt gibt es heute in etwa so viele Ontologiedefinitionen wie Autoren, die darüber schreiben. In einem interdisziplinären Arbeitskreis wie dem Darmstädter Ontologenkreis hemmt diese Situation die Kommunikation.

Versucht man jedoch, über die verschiedenen Auffassungen hinweg eine Schnittmenge zu bilden, so schält sich durchaus ein Kern gemeinsamen Verständnisses heraus. Der Vortrag richtet sich auf diesen Kern als interdisziplinärem Vorschlag für eine Ontologiedefinition und zeigt anhand einer Reihe von Beispielen, wie die Definition für verschiedene Disziplinen spezialisiert bzw. zugeschnitten werden kann.

6.11.2013

Dr. Veronika Schlüter

Gedanken zu Modalitäten, insbesondere zur Möglichkeit.
Ein Beitrag zur Ontologie.

9.10.2013

Prof. Dr. Peter Zahn

Ontologie und Semiotik

4.9.2013

Anne Simmerling, Prof. Dr. Nina Janich

Über Nicht-Wissen und unsicheres Wissen

3.7.2013

Prof. Dr. Peter Zahn

Ontologie und Semiotik

5.6.2013

Boran Gögetap

VOLAP: 3-Dimensionale Darstellung agiler semantischer Netze

8.5.2013

Prof. Dr. Bernhard Seiler

Evolution des Wissens –
Hypothesen einer evolutionären Erkenntnistheorie

3.4.2013

Reinhold Schlüpmann

Erstellung einer Norm –
Ein Erfahrungsbericht

27.2.2013

Prof. Dr. Bernhard Humm

Anwendung von Ontologien in Kunst und Bibliothekswesen

Matthias Rewald

Fernöstliche Ontologie –
Eindrücke und unordentliche Gedanken

21.9.2012

Prof. Dr. Dimitry E. Palchunov, Universität Novosibirsk

Ontologies for knowledge retrieval and generation

10.8.2012

Prof. Dr. Karl Erich Wolff

Anwendungen der formalen Begriffsanalyse

4.7.2012

Dr. Javier Cumpa Arteseros, Complutense University of Madrid

Próte Ousía –
A Study of Metaphysical Reconstruction

30.5.2012

Prof. Dr. Karl Erich Wolff

Einführung in die begriffliche Skalierung

4.5.2012

Prof. Dr. Karl Erich Wolff

Einführung in die Formale Begriffsanalyse

9.3.2012

Prof. Dr. Ulrich Wodarzik

Formen des Wissens

Matthias Rewald

Wahrnehmung - Biologie und Technik, ein Vergleich

16.9.2011

Prof. Dr. Urs Andelfinger

Ontologien im Wissensmanagement – Patentlösung oder Wunschtraum

Matthias Rewald

Theorie und Praxis –
Ergänzende Betrachtungen zum Vortrag von Prof. Andelfinger

Anatol Reibold

Gesunde Vielfalt und Dialektische Entwicklung

Protokoll

6.5.2011

Prof. Dr. Bernhard Humm

Was ist eigentlich Ontologie?

Informationen zu einer geplanten Veröffentlichung über unsere bisherigen Kolloquien

Dr. Veronika Schlüter

Ontologie Ingardens

Dr. habil. Christoph Lübbert

Kritik an der Ontologie Ingardens

Protokoll

15.10.2010

Prof. Dr. Bernhard Humm

Rückblick

Matthias Rewald

Ontologie – Ein Puzzle

Dr. Frank Moelter

Selbstorganisierende Karten

Prof. Dr. Erwin Tegtmeier

Determinablen und Ähnlichkeit

Protokoll

11.6.2010

Prof. Dr. Bernhard Humm

Rückblick

Janina Fengel, Prof. Dr. Michael Rebstock

Informatik-Anwendungsbeispiel: e-Business Integration

Wolfram Bartussek

Ontologien für Wörterbücher

Protokoll

19.3.2010

Protokoll

Prof. Dr. Erwin Tegtmeier

Was ist Ontologie? (Philosophie)

Prof. Dr. Bernhard Seiler

Was ist Ontologie? (Psychologie)

Wolfram Bartussek

Was ist Ontologie? (Informatik)

Anatol Reibold

Was ist Ontologie? (Mathematik)