Verfügbarkeit von Präsentations-Unterlagen
Zu den meisten der Vorträge existieren Präsentations-Unterlagen. Allerdings sind nicht alle Autoren damit einverstanden, diese öffentlich ins Internet zu stellen.
Aus diesem Grund ist der Zugriff auf die Unterlagen nur einem begrenzten Personenkreis möglich und durch ein Passwort geschützt. Wenn Sie sich für einen Vortrag interessieren, wenden Sie sich sich gerne an den im Impressum gennanten Verantwortlichen.
Bisherige Kolloquien
Mo, 14. Oktober 2024, (18 Uhr) 19 Uhr
Biomedical Knowledge Economy in the Age of Artificial Intelligence
Biomedizinische Daten werden in einem immer schnelleren Tempo gesammelt. Machine Learning-Werkzeuge, welche die großen biomedizinischen Datenmengen verarbeiten, gewinnen zunehmend an Bedeutung. Wissensgraphen werden dabei zur dominanten Form der Wissensrepräsentation. Wissen wird hierbei als Graph dargestellt, um die Navigation und Analyse komplexer Informationen zu erleichtern, oft unter Einbeziehung des semantischer Kontext.
Ihre Vielseitigkeit hat sie in Bereichen wie Datenspeicherung, Schlussfolgerungen und erklärbarer KI (explainable AI) populär gemacht.
Für viele Forschungsgruppen ist der Aufbau eines eigenen biomedizinischen Wissensgraphen jedoch unerschwinglich teuer. Dies motivierte zur Entwicklung des BioCypher-Framework, um Nutzer bei der Erstellung von Wissensgraphen zu unterstützen. Der Vortrag wird BioCypher und die Rolle von biologischen Ontologien für das Machine Learning vorstellen.
Ontologien im Wandel
Wo stehen wir mit dem Ontologenkreis und wo gehen wir hin – in Erwartung rasanten Fortschritts mittels Künstlicher Intelligenz? An diesem Termin ersetzen Rückblick, Impuls und Diskussion den sonst üblichen wissenschaftlichen Vortrag. Wir tauschen uns darüber aus, mit welchen Themen wir den Ontologenkreis zukünftig gestalten, sammeln Anregungen und Interessen.
Ontologenkreis – Was bisher geschah
Rückblick auf über 14 Jahre Ontologenkreis
Towards a Calculus of Ideas
In his paper[1], John Locke developed what is now called the “theory of ideas” - a theory about the objects of the conscious mind that represent the objects of the external world.
John Locke wrote that in addition to “simple ideas”, which in modern terms might be called “atomic ideas”, there are also “complex ideas”, which are built up from simple ideas by several “mental operations”.
In terms of modern algebra, John Locke's ideas appear to be elements of a free universal algebra generated by “atomic ideas”. An idea represents many objects, a set, a class, a multitude (here referred to as the “extension” of the idea), and this suggests that the signature of such a universal algebra can be found starting from set-theoretic considerations.
After this “translation” into modern terms, a contemporary researcher would be tempted to determine the signature of the universal algebra of ideas, to formulate a calculus using the terms of this signature, and to show how ideas can be automatically generated in this calculus.
In this sense, the present author has proposed a virtual machine for generating ideas within the free algebra of ideas [2], and an algebraic set theory for describing the extensions of ideas.
- [1]. John Locke. Works. Vol. 1. An Essay Concerning Human Understanding. 1689-90.
- [2]. Ioachim Drugus. A Wholebrain approach to the Web. 2007 IEEE/WIC/ACM International Conferences on Web Intelligence and Intelligent Agent Technology – Workshops, Silicon Valley, CA, USA, pp. 68-71, (2007).
Mareike Sirman-Winkler, Doktorandin der Carl-von-Ossietzky Universität Oldenburg, Institut für Sozialwissenschaften
Künstliche Intelligenz in der öffentlichen Verwaltung
Die öffentliche Verwaltung in Deutschland setzt in zunehmendem Maße algorithmische Entscheidungssysteme ein, die auf Künstlicher Intelligenz (KI) basieren. Die großen Potentiale von KI, die mit der Verwaltung in Verbindung gebracht werden, gehen aber auch mit potentiellen Risiken einher, vor allem im Bereich der Sozialversicherungsbehörden. Dies möchte Frau Sirman-Winkler in ihrem Vortrag auf Basis empirischer Fallbeispiele veranschaulichen.
Nach der Vorstellung ausgewählter KI-Anwendungsfälle in Sozialversicherungsbehörden wird sie schwerpunktmäßig auf die Frage eingehen, wie sich der Einsatz algorithmischer Systeme auf Beamt*innen und Bürger*innen auswirken kann.
Die Einführung von KI im Sozialstaat ist nicht trivial, es gibt eine Reihe von sektorspezifischen Herausforderungen. Welche Rolle spielt beispielsweise die Akzeptanz der Nutzer*innen bei der Einführung solcher Systeme?
Zum Schluss möchte Frau Sirman-Winkler noch auf die jüngsten Entwicklungen eingehen und darstellen, vor welche Fragen generative KI (wie ChatGPT) die öffentliche Verwaltung stellt.
Prof. Dr. Nina Janich,
Germanistik - Angewandte Linguistik
Institut für Sprach- und Literaturwissenschaft, TU Darmstadt
Zwischen Diagnose und Prognose: wissenschaftliches Wissen in Politik und Medien
Der Vortrag zeigt, wie in Texten der Wissenschaftskommunikation und Politikberatung im Zuge von Diagnosen und Prognosen sicheres, unsicheres oder fehlendes Wissen zeitlich gerahmt wird – zum Beispiel als aktueller Wissensstand oder als Annahmen über die (noch ungewisse) Zukunft.
Diskutiert werden solche Phänomene vor dem Hintergrund, dass Wissenschaft im Kontakt mit Politik und Medien leicht in ein Dilemma gerät: nämlich (nur) nützliches Wissen bereitzustellen oder (auch) politisch wirksam sein zu wollen.
Ohne RAMS macht´s rums!
Das Acronym „RAMS“ steht für „Reliability, Availability, Maintainability, Safety“. Das ist natürlich ein Anspruch, der leicht gesagt, aber schwer zu erreichen ist.
Insbesondere in komplexen Systemen, wie z.B. dem Betrieb eines ganzen landesweiten Bahnnetzes, hat man es mit einer Komplexität zu tun, die ohne Hilfsmittel fast nicht mehr zu überblicken, geschweige denn zu bändigen ist.
Dr. Anders arbeitet im Bereich der Bahn-Sicherungstechnik. Wie Ontologien dabei helfen, aus Fehlern und Unfällen zu lernen, um den Anspruch von „RAMS“ in die Realität umzusetzen, darüber spricht er in seinem Vortrag.
Prof. Dr. Dave Raggett, member of W3C/ERCIM
From logic to argumentation:
reasoning with imperfect knowledge in the era of
Artificial General Intelligence (AGI)
Human interactions and our understanding of the world is replete with uncertainty, imprecision, incomplete and inconsistent knowledge. Logicians have largely turned a blind eye to the challenges of imperfect knowledge. This is despite a long tradition of work on argumentation, stretching all the way back to Ancient Greece, that underpins courtroom proceedings, ethical guidelines, political discussion and everyday arguments.
Prof. Raggett will introduce the plausible knowledge notation as a potential solution that covers plausible inferences of properties and relationships, fuzzy scalars and quantifiers, along with analogical reasoning. He will then demonstrate that large language models are good at plausible reasoning, and examine the role of symbolic knowledge in the dawning era of artificial general intelligence. Computers are already better than us at dealing with complex knowledge on a large scale.
We can look forward to collaborative development of knowledge based systems using AGIs working hand in hand with human experts.
Today’s large language models are just the beginning of an intellectual revolution that will have huge and disruptive effects on work, education and play.
Anordnung von Güterwagen in Verteilergüterzügen
Kommen Güterwagen in einem Rangierbahnhof an, müssen sie an ihre Endkunden durch Verteilerzüge verteilt werden. Rangiert werden soll auf dem Rangierbahnhof. Danach soll Rangieraufwand vermieden werden.
Dabei müssen die folgenden Grundsätze beachtet werden:
- Das Ziel eines jeden Güterwagens ist ein bestimmtes Gleis.
- Jedes Gleis gehört zu einem Bahnhof
- Jeder Bahnhof wird von einem Verteilerzug angefahren.
- Jeder Verteilerzug beginnt am Rangierbahnhof oder ist ein Anschlussverteilerzug eines anderen Verteilerzuges an einem bestimmten Bahnhof.
Dies legt nahe, dass die zu verteilenden Güterwagen durch eine Baumstruktur hierarchisch klassifiziert werden können. Die Struktur kann weiter verfeinert werden als in 1. – 4. beschrieben worden ist.
In diesem Vortrag werden Baumstrukturen beschrieben, aus denen Anordnungsanforderungen an die Güterwagen abgeleitet werden können.
Prof. Dr. Bernhard Humm, Hochschule Darmstadt
Hybride KI mit Machine Learning und Ontologien
Heutzutage wird Künstliche Intelligenz (KI) häufig mit Machine Learning (ML) gleichgesetzt – was viel zu kurz gegriffen ist. Wissensbasierte KI, z.B. mittels Ontologien oder Regelsystemen, haben seit Jahrzehnten einen festen Platz in der KI-Forschung und -Praxis. Hybride Verfahren kombinieren ML mit wissensbasierter KI und vereinen so die Vorteile beider Gebiete.
Im Vortrag werden Verfahren und Anwendungen hybrider KI vorgestellt.
Prof. Dr. Melanie Siegel
Hochschule Darmstadt
Aktuelle Entwicklungen im Wordnet
Wordnets sind semantische Netze von Konzepten, die sich durch Synonyme definieren. Arbeiten an Wordnets gibt es schon seit 30 Jahren. Durch die Initiative „Open Multilingual Wordnets“ wurde die Entwicklung von Wordnets in vielen Sprachen mit interlingual vernetzten Konzepten und mit Open-Source-Lizenzen ermöglicht und gefördert. In diesem Kontext entstand u.a. das deutsche Wordnet OdeNet, das im Ontologenkreis bereits vorgestellt wurde.
Prof. Siegel berichtet über aktuelle Trends und Entwicklungen der offenen multilinguale Wordnets, die auf der Global Wordnet Conference im Januar 2023 in San Sebastian vorgestellt wurden. Sie stellt außerdem die Arbeiten an der Entwicklung eines ukrainischen Wordnets vor.
Prof. Dr. Iryna Gurevych
TU Darmstadt, Informatik, Ubiquitous Knowledge Processing (UKP) Lab
Dein Argument
: Sprache mit der KI analysieren
Der Bedarf, menschliche Sprache durch Künstliche Intelligenz (KI) zu verarbeiten, ist ubiquitär: Die Datenmengen, die in der Websphere erzeugt werden, steigen täglich rasant an. Doch um das wertvolle Wissen, welches in diesen Daten versteckt liegt, nutzbar zu machen, benötigt der Mensch maschinelle Unterstützung.
Daher beschäftigt sich das Gebiet des Natural Language Processing
(NLP) damit, KI zu entwickeln, welche Sprache verarbeiten kann.
Zum Einsatz kommt dies zum Beispiel für kritische Anwendungen wie
Fake News Detection
oder Hate Speech Detection
in
sozialen Medien.
Frau Prof. Gurevych beleuchtet in diesem Vortrag anhand des Beispiels
Argument Mining
, wie moderne KI-Algorithmen große Datenmengen
aufbereiten und mit Hilfe statistischer Lernverfahren effektiv
Argumente aus Textdatenbanken extrahieren. Außerdem stellt sie die
Entwicklungen in der neuesten NLP-Forschung dar – mit einem Schwerpunkt
auf aktuellen Herausforderungen und Potenzialen für Wissenschaft und
Gesellschaft.
Sabahattin Cakiral, OntoWorlds
Semantik und Ontologie aus der Perspektive eigener praktischer Lebenserfahrungen
Sabahattin stellt vor, wie er aus der Informatik und Elektrotechnik zur Semantik und Ontologie kam, um sowohl in privaten, sozialen und geschäftlichen Bereichen praktische Einsätze der semantisch ontologischen Ansätze zu wagen.
Der Vortrag hat keinen wissenschaftlichen Anspruch, zeigt aber dass Semantik und Ontologie einem größeren Publikum besser zugänglich gemacht werden sollte, um ihnen einen einfacheren Umgang mit der höheren Komplexität der neuen Zeit und seiner Technologien zu gewährleisten.
Bernhard Fisseni (Universität Duisburg-Essen)
Deniz Sarikaya (Vrije Universiteit Brussel)
Bernhard Schröder (Universität Duisburg-Essen)
Frames in mathematischen Beweisen
Das Frame-Konzept wurde in der Künstlichen Intelligenz, Kognitionswissenschaft und Linguistik entwickelt und hat in letzter Zeit wieder vermehrt Interesse unter Philosoph:innen und Wissenschaftstheoretiker:innen gefunden. Jüngst gab es auch Versuche, mathematische Beweise mithilfe von Frames zu modellieren. Diese Versuche gehen von einer Unterscheidung zwischen strukturellen und ontologischen Frames aus. Strukturelle Frames modellieren Erwartungen an Beweismethoden sowie Bestandteile von Beweisen und deren Beziehungen. Ontologische Frames erfassen mathematische Strukturen und typische referierende Ausdrücke in natürlicher Sprache oder Formelnotation.
Im Vortrag werden einerseits kognitive Aspekte des Frame-Konzepts im Hinblick auf den Erwerb von Beweistechniken und andererseits sprachliche Aspekte des Produzierens und Lesens von Beweistexten diskutiert. Wir werden außerdem eine rationale Rekonstruktion des Perspektivwechsels zwischen Notations- und Semantikaspekten geben, die zur Einführung der Null (und negativer Zahlen) führt. Ferner werden wir ein weiteres Beispiel für solche Notationsaspekte in Bezug auf die Entwicklung der Booleschen Logik geben, in der die Notation und Symbolmanipulation bisweilen gegenüber ontologischen Erwägungen im engeren Sinne primär zu sein scheint.
Durch die einheitliche Betrachtung der Interaktion struktureller und im engeren Sinne ontologischer Frames wird eine strenge Trennung zwischen beiden Ebenen aufgehoben.
Literatur:
- Merlin Carl, Marcos Cramer, Bernhard Fisseni, Deniz Sarikaya,
Bernhard Schröder (2021):
How to Frame Understanding in Mathematics: A Case Study Using Extremal Proofs.
In: Axiomathes 31, pages 649-676 (2021).
DOI: 10.1007/s10516-021-09552-9 - Bernhard Fisseni, Deniz Sarikaya, Martin Schmitt, Bernhard Schröder
(2020):
How to frame a mathematician. Modelling the cognitive background of proofs.
In: Stefania Centrone, Deborah Kant, Deniz Sarikaya (eds.): Reflections on the foundations of mathematics: Univalent foundations, set theory and general thoughts. Berlin, Heidelberg: Springer.
DOI: 10.1007/978-3-030-15655-8_19
OMA-ML: Effektives Machine Learning einfach gemacht
Machine Learning ist in aller Munde. Aber effektive Machine Learning entwickeln ist anspruchsvoll und erfordert jahrelange Erfahrung.
In diesem Vortrag zeigt Alexander Zender, wie Machine Learning einfach gemacht werden kann, und was das alles mit Ontologien zu tun hat.
Eine etwas tiefer gehende Vorstellung vom Thema kann man sich hier verschaffen:
Hier finden Sie die:Prof. Dr. Jens Braband, TU Braunschweig und Siemens Mobility GmbH
KI und Zuverlässigkeit
Seit Jahren gibt es einen großen Hype um künstliche Intelligenz. Dennoch gibt es bislang kein System, das vollständig automatisiert sicherheitsrelevante Entscheidungen treffen kann. Zwar gibt es in der Automobiltechnik einige Fortschritte. Diese betreffen aber entweder Assistenzsysteme oder sehr begrenzte Einsatzszenarien, z.B. auf der Autobahn bei geringer Geschwindigkeit und gutem Wetter. Für die Automatisierung bei der Bahn ist es jedoch wichtig, Algorithmen zu haben, die unter allen Betriebsbedingungen automatisch sicherheitsrelevante Entscheidungen treffen können. Auch deshalb, weil dies mit konventioneller Technik, z. B. bei fahrerlosen U-Bahnen, bereits erlaubt ist.
Zum einen sind gängige Verfahren der künstlichen Intelligenz für Menschen nur schwer nachvollziehbar. Zum anderen sind auch die Daten, die verarbeitet werden sollen oft sehr hoch-dimensional und die Umgebungsbedingungen komplex. Zusammen eine nur schwer zu durchdringende Aufgabe.
In einer Studie in Form eines Studentenwettbewerbs, unter Leitung von Prof. Dr. Braband, wurde versucht neue Wege und Ansatzpunkte zu finden. Dabei wurde versucht, die Problemstellung so zu wählen, dass sie einerseits möglichst einfach, andererseits aber auch nicht trivial ist, so dass die wesentlichen Probleme der maschinellen Lernanwendungen für sicherheitsrelevante Entscheidungen deutlich werden, und gleichzeitig störende Nebeneffekte gering bleiben. Die wesentlichen Ergebnisse dieser Studie, wird er in diesem Vortrag erörtern.
Prof. Dr. rer. nat. Thomas Hoppe
Hochschule für Technik und Wirtschaft Berlin
Fraunhofer-Institut für offene Kommunikationssysteme (FOKUS)
Philosophische Untersuchungen von Ontologien – Erste Überlegungen
Ludwig Wittgenstein ist weit bekannt durch seinen 'Tractatus', der sich in die Philosophie der idealen Sprache eingliedert.
Die Kommunikation von Menschen aber ist selten ideal. Wir nutzen erlernte Synonyme oder kreiieren sie, umschreiben Konzepte, ja wir erfinden mitunter neue Begriffe; wer hat nach solchen nicht schon mal gegoogelt?
Der späte Wittgenstein wandte sich in seinen 'Philosophischen Untersuchungen' der normalen Sprache zu. Ich bezeichne diese mitunter als 'gelebte Sprache', denn was ist schon normal. Seine Arbeit wirft interessante Fragen hinsichtlich unseres Interesses auf Weltwissen in Form von konzeptuellen Modellen oder Ontologien zu modellieren.
Dieser Vortrag stellt einige Gedanken dar, ob und unter welchen Umständen uns dies gelingen kann.
Entwicklung der kontext-bezogenen Fehlerdiagnose
Maschinen bilden weithin geschlossene Silos in denen Know-How verschiedener Hersteller separiert vorliegt. Diese Segregation von Systemen verhindert eine Integration wie von Industrie 4.0 vorgesehen und erschwert gleichzeitig die Fehlerdiagnose.
In der heutigen Zeit, kommen spezialisierte Teams der Hersteller in der Fehlerdiagnose zum Einsatz, um die Fehler einer Maschine zu analysieren. Dieser Fokus auf eine Maschine in einer immer stärker vernetzten Umgebung berücksichtigt jedoch nicht die neu entstehenden Abhängigkeiten.
Hierbei wird der Kontext der Produktionsumgebung in dem ein Fehler passiert vernachlässigt. Die neu entstandenen Abhängigkeiten zwischen Maschinen werden in Zukunft durch den steigenden Automatisierungsgrad und Vernetzung eine verstärkte Rolle spielen.
Die kontext-bezogene Fehlerdiagnose ist ein ganzheitliches Konzept, von der dedizierten Erhebung und Extraktion von Kontext-Information, über die Nutzung in mathematischen Modellen bis hin zur Einbindung des Menschen mit Hilfe Kontext darstellender Visualisierungen.
Die aktuelle Forschung in der Fehlerdiagnose konzentriert sich aktuell eher auf wenige Variablen innerhalb abgeschlossener (Einzel-)Systeme. Auch die in der Forschung vorherrschenden Datensätze spiegeln dies durch ihre Simplizität wieder.
Der Vortrag beleuchtet auf verschiedenen Ebenen die Konzepte der kontext-bezogenen Fehlerdiagnose und geht dabei anekdotisch auf die Hindernisse aktueller Forschung im Industrie 4.0-Umfeld ein.
Evaluation von Ontologien
Ontologien sind Terminologien, die besonders weitgehend formal-logisch modelliert wurden. Ontologien formalisieren nicht nur Begriffe, sondern normieren sie auch.
Wenn Wittgenstein recht hat, dass die Grenzen meiner Sprache die Grenzen meiner Welt bedeuten, greifen Ontologien in Denken ein.
Es stellt sich die wissenschaftstheoretische Frage, wie wir die
Wahrheit
oder Angemessenheit
einer Ontologie beurteilen
können.
Algorithmen für kausale Inferenz
Mit Ursprüngen in verschiedenen Disziplinen (Sozial-, Gesundheits- und Wirtschaftswissenschaften, Informatik, Mathematik, Statistik) ist in den letzten 30 Jahren das Forschungsfeld "Kausale Inferenz" entstanden.
Die zentrale Fragestellung ist dabei ohne das Durchführen von Experimenten (wie z.B. randomisierten Studien) kausale Zusammenhänge auf Basis von Daten zu erkennen und zu quantifizieren.
Dieser Vortrag soll einen Überblick darüber geben in welchen Situationen, unter welchen Annahmen und mithilfe welcher Methoden dies möglich ist. Ein besonderer Fokus wird dabei auf die graphbasierten kausalen Modelle gelegt, welche von Judea Pearl popularisiert wurden, und die algorithmischen Probleme, die in diesem Zusammenhang auftreten.
Prof. Dr. Dietrich Albert, Universität Graz
Grundlagen und Anwendungen der Kompetenz-basierten Wissensraumtheorie
Die Wissensraumtheorie (Knowledge Space Theory, KST) ist verhaltens-orientiert und bezieht sich auf beobachtbare Ereignisse; die KST wurde als Verallgemeinerung von Halbordnung und Verband durch Jean-Paul Doignon und Jean-Claude Falmagne seit 1985 entwickelt und im adaptiven Lehr-/Lern-System ALEKS angewendet (https://www.aleks.com/).
Die Kompetenz-basierte Wissensraumtheorie (Competence based Knowledge Space Theory, CbKST) ist eine Erweiterung der KST und schließt nichtbeobachtbare Entitäten wie Kompetenzen ein. Die CbKST wurde maßgeblich in den Arbeitsgruppen von Prof. Albert an den Universitäten Heidelberg und Graz entwickelt, erweitert und angewendet.
Dementsprechend kommen zur Sprache:
- KST und CbKSt
- kognitionspsychologische Grundlagen der verwendeten Strukturen, wie z.B. ‚Concept Maps‘
- Erweiterungen durch Modellierungen von z.B. Problemlöse-Prozessen und Selbstreguliertem Lernen
- diverse potenzielle Anwendungen
Ein standardisiertes Wissenssystem für eine Kreislaufwirtschaft
Der Schutz unserer Lebensgrundlagen wird ein immer drängenderes Problem. Ein wichtiger Aspekt dabei: die Wiederverwertung von Rohstoffen. Dafür ist es notwendig, die Materialien kategorisieren, kennzeichnen und zurückverfolgen zu können. Aber auch: Informationen zu diesen Materialien bereit zu stellen und über Alternativen zu informieren. Bei den komplexen und branchen-übergreifenden Lieferketten, wie sie heute die Regel sind, eine wirkliche Herausforderung.
Um diese Herausforderung anzunehmen arbeiten GS1 (Ein Netzwerk von Organisationen, die weltweit Standards für Prozesse und Kennzeichnungen erarbeiten und pflegen) und das W3C (Eine Organisation, die weltweit Standards für die Kommunikation im Internet erarbeitet und pflegt) eng miteinander zusammen, um die Standards bereit zu stellen, die für diese Mammut-Aufgabe das Fundament legen: Nomenklaturen, Codierungen, Taxonomien und Ontologien um ein Informations-Netzwerk möglichst reibungsarm betreiben zu können.
Noch ist viel zu tun! Rigo Wenning berichtet über Herausforderungen und was bereits erreicht werden konnte.
Grundlage seines Vortrags bildet das Papier:
KI – Kybernetik – Maschinenethik
Versuch einer Reflexion jenseits von Hype und Horror
Der Begriff Künstliche Intelligenz und seine Anverwandten tragen schon seit Jahren alle Charakteristika eines gehypten Narrativs. Dabei wurden und werden einige Vorannahmen und Hypothesen als Tatsachen behandelt und entweder nur unzureichend reflektiert oder gar völlig vernachlässigt.
Der Beitrag versucht, über die Wiedereinbeziehung von Erkenntnissen insbesondere aus der Kybernetik Standpunkte jenseits der Polarität von Hype und Horror zu entwickeln, die den menschlichen Konstrukteuren und Nutzern von KI ihre zwischenzeitlich abhanden gekommene Souveränität zurückgeben könnten.
(So man das will …)
Prinzipien eines Semantic Desktop
Für eigene Zwecke hat Herr Weller einen Semantic Desktop
entwickelt. Dieser erlaubt es Daten und Medien unterschiedlichster
Art miteinander zu verknüpfen. Vor allem aber: assoziativ
in diesem
Netz aus Verknüpfungen zu navigieren und so schnell und einfach
wiederzufinden was man sucht.
Am Beispiel von funktionalen Erweiterungen an diesem Tool wird Herr Weller einige der Ideen und Prinzipien erläutern, die seinem Werkzeug zu Grunde liegen.
In einem Beispiel wird es darum gehen, nicht nur ein bestimmtes Video wieder zu finden, sondern darin eine bestimmte Stelle - und diese dann auch gleich abspielen zu können. Insbesondere Interessant ist so etwas z.B. für Video-Mitschnitte von Vorträgen oder Diskussionen.
Der leibhaftige Mensch, dass Cotard-Syndrom und die Rechenmaschine
Angesichts der ungeahnten Fähigkeiten moderner Computer scheint die Grenze zwischen menschlichem Vermögen und demjenigen von Computern zu verschwimmen. Technik generell stellt eine Projektion menschlicher Organe dar, Freud nannte daher den Menschen ironisch einen Prothesen-Gott.
In der Neuzeit geht es vor allem auch um den Versuch, die Fähigkeiten des menschlichen Gehirns zu imitieren. Arnold Gehlen sprach in diesem Zusammenhang von der Tendenz zur Zerebralisation.
Die Geister, die wir riefen, werden wir nun allerdings schwer wieder los. Günter Anders sprach in diesem Zusammenhang von prometheischer Scham und spielte darauf an, dass der moderne Mensch sich im Vergleich zur technischen Perfektion von Maschinen als fehlbar, den eigenen Schwächen ausgeliefert und vor allem auch an die Bedürfnisse des Leibes gefesselt empfindet, als sei er nur noch eine Maschine zweiter Klasse. Damit wird eine zweite Richtung vorgegeben, dass technische Geräte ins Körperbild assimiliert werden, um deren Perfektion nachzuahmen. So begann die Neuzeit z. B. mit Descartes mit einer maßlosen Übertreibung des Maschinengedankens.
Als Psychoanalytiker bin ich als eine Art Spürhund darauf spezialisiert, menschliche Verhaltensweisen auf damit verbundene verdeckte Ängste zu dechiffrieren. Das Rechnen ist das Ergebnis einer Fluchtbewegung, da der Mensch als Mängelwesen ursprünglich ein Fluchttier war. Es folgt einer unbewussten Magie, nämlich archaische Ängste von Menschen, die sich den Naturkräfte noch total ausgeliefert gefühlt haben, zu bannen. Den Weg von dem ungefilterten Erleben der gefährlichen Wildheit bis zum gezähmten Rechenmodell der Welt möchte ich nachzeichnen. Damit kann auch deutlich gemacht werden, dass das Wesen des Menschlichen nicht das Denken und das Bewusstsein ist, sondern das Erleben angesiedelt an der Schnittstelle zwischen Körper und Geist.
Studio im Campus 4.0 für Präsentation der Zukunft
Der Campus 4.0 ist eine Kooperationsplattform die Von
DB Training
entwickelt wurde und eingesetzt wird.
DB Training ist ein Tochterunternehmen der Deutschen Bundesbahn,
in dem Ausbildungs- und Trainingsaktivitäten der
Deutschen Bundesbahn gebündelt werden.
Campus 4.0 dient nicht nur als Veranstaltungsraum, sondern fügt Funktionalitäten hinzu um Kreativität und das Finden von Lösungen zu unterstützen.
Stefan Holtel, PricewaterhouseCoopers
Todesstrafe für Roboter?
Zur Verantwortung Künstlicher Intelligenz
Am 27. September 2017 verlieh Saudi-Arabien dem Roboter Sophia die Staatsbürgerschaft. Drei Jahre später verkündete ein US-Gericht, dass der Künstlichen Intelligenz (KI) Dabus kein Patent zugesprochen werden darf.
- Was verbindet beide Ereignisse?
- Wie verändern sie Diskurse über KI?
- Was werden wir in dieser Hinsicht noch erleben?
Ob automatisch erzeugte Suchlisten bei Google, Fahrten mit dem Roboterauto Tesla oder Menschenjagden mit der Militärdrone Kargu, immer stellt sich dieselbe Frage: Wer trägt die Verantwortung für den Einsatz von KI? Mögliche Antworten bleiben vage, aber wir werden ihr immer weniger ausweichen können.
Stefan Holtel doziert und publiziert zu den Chancen und Risiken der digitalen Transformation für Organisationen. Im letzten Jahr ist von ihm erschienen:
- KI-volution: Künstliche Intelligenz einfach erklärt für alle
ISBN Buch 978-3-868817997, Ebook 978-3-962672294, Hörbuch 978-3-962673253
Redline, München - Präsentationsfolien
Prof. Dr. Johannes Busse,
(HAW Landshut)
GenDifS
Selbst für Praktiker, die in formaler Logik geschult sind, ist es schwierig und fehlerträchtig, Ontologien “zu Fuß” (z.B. in Protegé) anzulegen und zu pflegen.
GenDifS ist ein Verfahren und ein Tool, um dies weitgehend zu automatisieren; zumindest für Ontologien, die bestimmte Kriterien einhalten.
Dabei wird die so erzeugte Ontologie durch den gesamten Entwurfs-Prozess visualisiert.
Infos dazu:
Oren Halvani, Fraunhofer SIT Darmstadt
TAVeer: Ein robustes und themenagnostisches Verfahren zur Verifikation von Schreibstilen
Ein zentrales Problem, das seit vielen Jahren im Bereich der digitalen Textforensik erforscht wird, ist die Frage, ob zwei Dokumente vom selben Autor verfasst wurden. Die Autorenschaftsverifikation (AV) ist ein Forschungszweig in diesem Bereich, der sich mit dieser Frage beschäftigt.
Im Laufe der Jahre haben die Forschungsaktivitäten im Zusammenhang mit AV stetig zugenommen, welche zu einer Vielzahl von Ansätzen geführt haben, die versuchen, dieses Problem zu lösen. Viele dieser Ansätze nutzen jedoch Merkmale, die mit dem Thema der Dokumente zusammenhängen oder davon beeinflusst sind. Daher kann es versehentlich passieren, dass ihre Verifikationsergebnisse nicht auf dem Schreibstil (dem eigentlichen Fokus von AV), sondern auf dem Thema der Dokumente basieren.
Um dieses Problem zu adressieren, schlagen wir einen alternativen AV-Ansatz vor, der nur themenunabhängige Merkmale in seiner Klassifikationsentscheidung berücksichtigt.
Zusätzlich stellen wir eine Post-hoc-Interpretationsmethode vor, die es erlaubt zu verstehen, welche besonderen Merkmale zur Vorhersage der vorgeschlagenen AV-Methode beigetragen haben.
Um die Leistungsfähigkeit unserer AV-Methode zu evaluieren, haben wir sie mit acht konkurrierenden Baselines (einschließlich dem aktuellen Stand der Technik) auf vier anspruchsvollen Datensätzen verglichen. Die Ergebnisse zeigen, dass unser Ansatz in zwei Fällen alle Baselines übertrifft (mit einer maximalen Genauigkeit von 84 %), während er in den anderen beiden Fällen genauso gut abschneidet wie die stärkste Baseline.
Hermann Bense,
Vorstandsvorsitzender der textOmatic AG
Finden ohne zu suchen: Regelbasierte KI informiert automatisiert über relevante wissenschaftliche Veröffentlichungen
Referenzen für eigene Veröffentlichung oder für die eigene Forschungstätigkeit suchen? Oft ist das eine mühsame Aufgabe. Die von der textOmatic (AG) entwickelte rOb.by -App kann dabei einen großen Teil der Arbeit abnehmen.
Folgende Fragen werden angesprochen:
- Wann werden welche Publikationen in den Corpus aufgenommen?
- Wie kann durch Indexierung und Caching die Qualität und Performance der Suchen gesteigert werden?
- Wie kann ein Benutzer Regeln für die Spezifikation seines Such- Bedürfnisse erstellen?
- Welche Vorteile hat der Ansatz/die Technologie im Vergleich zu
anderen Such-Portalen wie
Google(-Scholar)
,Technische Informationsbibliothek Braunschweig
undSpringer Professional
.
Tabea Hein,
Stadt Frankfurt am Main, Koordinierungsstelle Verwaltungsstrukturreform
Künstliche Intelligenz für die Smart City –
Potenziale und Herausforderungen
„Künstliche Intelligenz (KI)“ und „Stadtverwaltung“ sind Begriffe, die vielleicht auf den ersten Blick nicht unbedingt in Korrelation stehen. Als Co-Autorin der Handreichung „Künstliche Intelligenz für die Smart City Handlungsimpulse für die kommunale Praxis“ unternimmt Tabea Hein trotzdem den Versuch, beide Bereiche aufeinander zuzuführen und insbesondere Kommunen Mut zu machen, sich mit dem Thema „KI“ zu beschäftigen. Sie rät, sich jetzt nicht nur mit der hinter dem Begriff liegenden Technik vertraut zu machen, sondern auch zu einer Auseinandersetzung mit den kritischen Faktoren, wie Ethik, Transparenz, Ängsten und Regulierung.
KI bietet vielfältige Chancen, Prozesse zum Wohl der Kommunalverwaltung und der Stadtgesellschaft zu verbessern. Viele Lösungen sind schon durch andere Branchen erarbeitet und können teils mit wenigen Anpassungen übertragen werden. Bereits umgesetzte Anwendungsbeispiele und Anregungen zu neuen Ideen finden sich im Buch wie in ihrem Vortrag.
- Buch: Tabea Hein, Götz Volkenandt
Künstliche Intelligenz für die Smart City.
Handlungsimpulse für die kommunale Praxis
Download
Rigo Wenning, Justitiar, W3C/ERCIM
Semantics for Data Value Chains:
Vom dummen zum intelligenten Data Ware House
Die Gesellschaft digitalisiert sich und bringt immer mehr Daten hervor. Die Kombination und Analyse von Daten können zu bahnbrechenden neuen Erkenntnissen führen. Deswegen wird den Daten ein hoher Wert zugeschrieben.
Dem stehen die Gefahren von Machtkonzentration und -missbrauch durch die Kontrolle über die Datenhaufen gegenüber. Der Datenschutz will, dass wir weniger Daten sammeln.
Der Vortrag argumentiert, dass wir mehr Daten sammeln müssen, um besser, ethischer und nachvollziehbarer zu den bahnbrechenden Erkenntnissen zu kommen.
Prof. Dr. Bernhard Humm, Hochschule Darmstadt
Künstliche Intelligenz – Fluch oder Segen?
Künstliche Intelligenz (KI) ist aktuell in alle Munde: Regierungen und Unternehmen richten ihre Technologiestrategien auf KI aus, Medien berichten über bahnbrechende Erfolge sowie gravierende Umwälzungen am Arbeitsmarkt, Hollywood reizt mit Visionen und Dystopien. Was steckt hinter KI-Technologien? Was können wir davon erwarten – positiv wie negativ? Das möchten wir gemeinsam diskutieren.
Bernhard Humm beschäftigt sich seit über 30 Jahren mit KI, forscht und entwickelt KI-Anwendungen für die Praxis.
Christian Fillies, Semtation GmbH
Semantische Anreicherung von Named Entities durch Taxonomien zur Unterstützung von Denkmalschutzprozessen
Unspezifische „Keyword Extraktion“ und „Named-Entity- Recognition“ liefern zunächst wenig zufriedenstellende Ergebnisse auf Business-Dokumenten im Unternehmensalltag, wenn sie nicht domänenspezifisch trainiert werden. Am Beispiel zeigen wir, wie man mit sehr geringen Investitionen in Begriffsysteme, Taxonomien und Ontologien die Dokumente im SharePoint d.h. auch in jedem Microsoft Team für das Wissensmanagement besser strukturieren kann. Mit spaCy und .msg Holmes kommen wir auf die nächste (kompatible) Ebene, wenn wir auch Open Source-Komponenten einbinden.
Der vorgestellte Use Case bezieht sich auf die Einführung eines Vorgangsmanagement für den Denkmalschutz. Einige sehr wissensintensive Prozesse müssen auf teilweise Jahrzehnte alte Unterlagen zugreifen, die meist unstrukturiert abgelegt wurden. Es handelt sich dabei sowohl um Vorgangsdaten als auch um historische bzw. architekturgeschichtliche Dokumente.
Deep Learning: Von mysteriösen Hype zum verlässlichen Freund
Deep Learning ist in den letzten Jahren fast zu einem Modewort geworden. Gemeint ist damit aber eigentlich nicht der Lernprozess selbst, sondern künstliche Neuronale Netze, mit einem erhöhten Komplexitätsgrad. Diese Komplexität bringt einerseits eine höhere Leistungsfähigkeit mit sich, andererseits sind damit aber auch eine Reihe von Stolperfallen verbunden.
Neuronale Netze sind eine Technologie, die eigentlich in Konkurrenz zu ontologischen Lösungs-Ansätzen steht, sie hat aber weite Verbreitung gefunden. Und sie besitzt das Potential, ontologische Ansätze zu ergänzen und zu bereichern.
Anatol Reibold wird uns deshalb einen Blick in diesen Bereich anbieten und hat sich dazu die folgende Agenda vorgenommen:
- Deep Learning in Neuronalen Netzen
- Was ist
Deep
in Deep Learning? - LSTM von Josef Hochreiter und Jürgen Schmidhuber.
Wird Deep Learning scheinbar zu einer Magie? - Ist Deep Learning nur eine große Menge von mathematischen Algorithmen?
- Deep Learning liefert neue Denkanstöße für Data Science
- Wie kann man Deep Learning mit Python ausprobieren?
Sind RDF und Labeled Property Graphs hinreichend für die Entwicklung von Semantic Web Anwendungen?
Hermann Bense wird sich in seinem Vortrag mit den folgenden Fragen beschäftigen:
- Was sind Labeled Property Graphs (LPGs)?
- Was unterscheidet sie von Knowledge Graphs?
- Wie kann man n-ary Relations und LPGs mit Instanzen von Object Properties (Relatoren) modellieren?
- Wann ist es sinnvoll / nicht sinnvoll LPGs zu verwenden?
- Wann muss/kann man n-ary Relations verwenden und in welcher Beziehung stehen sie zu LPGs?
- Anwendung von Singletons als Instanzen von Object Properties: Lassen sich damit alle Anforderung an LPGs vollständig erfüllen?
- Reicht der RDF/OWL Standard aus für die Modellierung von Meta-Klassen und Labeled Property Graphs (LPGs)?
- Kann die RDF/OWL Standards über die Anwendung und Ansprüche für das Semantic Web hinaus auch für die Objekt-orientierte Anwendungsentwicklung heranziehen?
- Warum sollten Object Properties als First-class-Citizens behandelt werden?
- Welche Konsequenzen hat das für die Weiterentwicklung des RDF-Standards?
Semantic Web meets Live Long Learning – das Semantic Qualification Web
Zwanzig Jahre, nachdem Tim Berners Lee das Semantic Web
erfunden
hat, ist es still um die intelligenten Agenten geworden.
Nach einem Erfahrungsaustausch in Expertenkreisen, ist die klassische Künstliche Intelligenz (KI), die auf Ontologien basiert, nicht richtig auf Touren gekommen, weil es zu wenig Bereitschaft gab, um das Semantic Web (abstrakt gesehen eine globale Verbund-Ontologie) mit den damaligen Mitteln mit aufzubauen. Heute denken einige, dass KI gleich Maschine Learning (ML) ist. Die Semantic Web Ontologie ist in Vergessenheit geraten, obwohl viele geniale Ideen, Methoden und Technologien heute noch genutzt werden (teilweise ohne das mit dem Semantic Web in Verbindung zu bringen).
Ein junges Forschungs-Team würde aber gerne das Live Long Learning
mit der damaligen Idee von Tim Berners Lee unterstützen. Leider hat
sich die Bereitschaft zum Bauen eines Semantic Web nicht wirklich
verbessert, aber das explizite Wissen, um eine dynamische Ontologie
in diesem Bereich aufzubauen, ist in schriftlicher Form vollständig
vorhanden. Warum nutzen wir dann nicht die Stärken der neuen
KI
(gleichzeitig ist es auch die alte KI, denn ML gab es schon in
Schachcomputer-Zeiten), um das explizite Wissen der Bildungslandschaft
in eine Semantic Qualification Web Ontologie zu transformieren?
Genau darum geht es in dem Vortrag von Prof. Dr.-Ing. Michael Fuchs, nämlich der herausfordende Aufbau des Semantic Qualification Web, bestehend aus Thesauri, Ontologien, Taxonomien ohne Beteiligung von Bildungsanbietern nur mit Hilfe von sogenannten Data Science-Methoden …
Prof. Dr. Thomas Bernhard Seiler
Wer ist das Ich und wie ist es entstanden?
Im Handeln und Denken des Menschen hat die Vorstellung, ein eigenständiges von anderen abgetrenntes Ich zu sein, einen besonderen Platz und grundlegende Funktionen. Darum werden nicht bloß in psychologischen Theorien Begriffe wie "Ich", "Selbst" und "Identität" folgerichtig mit zentralen Aufgaben belehnt.
Allerdings gehen die Meinungen und Theorien darüber, wie diese Begriffe verstanden werden sollen, weit auseinander.
In seinem Vortrag wirft Bernhard Seiler einige Fragen auf und stellt seine evolutionär erkenntnistheoretische Sichtweise dazu vor.
Wertströme entlang von Wirkungsketten
Eigentlich lassen sich mit Ontologien sowohl statische Strukturen und Abhängigkeiten modellieren, als auch dynamische Prozesse. Der zweite Fall hat bislang allerdings wenig Aufmerksamkeit erfahren.
Produktions-Prozesse, Abläufe zur Erbringung eines Service und die jeweils dazugehörigen kausalen Abhängigkeiten:
- Wie lassen sich solche Abläufe in einer Ontologie beschreiben? Und vor allem:
- Wie kann der Nutzer eines solchen Modells dabei unterstützt werden, das Modell auch erfolgreich zu nutzen?
- Wie kann ein ontologisches Modell seine Nutzer dabei unterstützen, schneller und einfacher zu Ergebnissen zu gelangen?
Diese Herausforderungen werden von Herrn Gögetap näher beleuchtet.
Unter dem folgenden Link gibt es ein interaktives Beispiel:
Klicken Sie ein Element an (oder Mehrere). Dazugehörige Wirkungsketten werden farblich markiert.
Mi, 24. Juni 2020
Die Zukunft des Ontologenkreises
In den vergangenen beiden Monaten musste der Ontologenkreis leider ausfallen. Grund war die Corona-Epidemie, Ein Treffen wäre unter den gegebenen Umständen nicht zu verantworten gewesen. Auch heute ist ein Ende der Pandemie noch nicht abzusehen.
Wie soll es also weiter gehen mit unserer Veranstaltungsreihe?
In einer Video-Konferenz wollen wir darüber – und über einige weitere Weichenstellungen – beraten. Anatol, der seit über einem Jahr die Organisation unserer Kolloquienreihe übernommen hat, wird dazu Vorschläge machen und zur Diskussion stellen.
Mi, 11. März 2020
Temporale Begriffsanalyse von feuernden Neuronen
Wie orientieren wir uns? Haben wir Landkarten im Kopf? Wie werden die gespeichert?
Versuche (meist an Ratten) haben gezeigt, dass Ortszellen existieren, die nur feuern, wenn wir an dem betreffenden Ort sind. Der Nobelpreis für Physiologie oder Medizin 2014 wurde vergeben an Forscher, die Gitterzellen gefunden haben, die offenbar dazu dienen, Landkarten anzulegen. Das gleichzeitigen Feuern von Orts- und Gitterzellen verbindet deren Informationen.
Mit Hilfe der Temporalen Begriffsanalyse wird eine Möglichkeit gezeigt, wie allein aus der Kenntnis des gleichzeitigen Feuerns von Orts- und Gitterzellen begriffliche Landkarten erzeugt werden können. Beliebige weitere Informationen können in diese Karten eingebettet werden.
Mi, 12. Februar 2020
Graphenmodelle für Eisenbahninfrastruktur
Die Infrastruktur der Eisenbahn lässt sich in Gleisabschnitte, Weichen, Kreuzungen usw. gliedern. Der Vortrag wird darstellen,
- wie sich eine solche Gliederung als Graphenmodell darstellen lässt.
- welche zusätzlichen Anforderungen erfüllt sein müssen, um ein Graphenmodell praktisch nutzbar zu machen
- wie komplexe Modelle in einer gröberen Granularität dargestellt werden können, um so eine leichtere Übersicht zu erlauben,
- und wie das hinein- und heraus-zoomen zwischen unterschiedlichen Granularitäts-Stufen formal umgesetzt werden kann.
Mi, 11. Dezember 2019
Kai-Uwe Schäfer,
IT-Berater aus Frankfurt am Main
Graphenalgorithmen – von Daten zu Informationen
Die Welt der Datenverarbeitung bewegt sich weg von Mengen und hin zu Netzen. Neuere Anwendungsfälle ziehen ihren Mehrwert nicht mehr aus nackten Daten, sondern aus den Beziehungen zwischen ihnen; soziale Netze sind dafür das prominenteste Beispiel.
Auch Data Science im Allgemeinen und Machine Learning im Besonderen profitieren von stark vernetzten Daten. Ein reicher Kontext gibt den Daten Bedeutung und produziert neue Erkenntnisse.
Der Vortrag erläutert, wie stark vernetzte Daten in einem Graphen gespeichert und analysiert werden können. Eine praktische Demo illustriert die Anwendung von Graphenalgorithmen – ein neues Kapitel der Data Science!
Mi, 13. November 2019
Morgenstern = Abendstern = Venus –
Über die Bedeutung von intensionaler Logik für die Wissensrepräsentation
mit Ontologien
Gottlob Frege hat zwischen Bedeutung
und Sinn
unterschieden. Seitdem diskutieren Mathematiker, Logiker und
Sprachwissenschaftler, wie der Sinn eines Ausdrucks zu fassen sei.
Heute bezeichnet man den Sinn
als Intension
.
Der Vortrag versucht, die Relevanz dieses Begriffes zu beleuchten, die er für die Erstellung von Ontologien bzw. die Formalisierung von Wissen aus natürlich-sprachlichen Quellen hat.
Mi, 16. Oktober 2019
Neue Aspekte des Conceptual Metamodeling
Im Vortrag werden die zwei neuen Attribut-Typen „Class-Properties“ und „Meta-Class-Properties“ eingeführt. Diese ermöglichen es, die Modellierung von Klassen und Meta-Klassen in Ontologien zu vereinfachen und Fehler wie die sogenannten „Layer-Mistakes“ zu vermeiden.
Ferner wird gezeigt, dass man im Vergleich zu anderen Modellierungsmethoden wie UML mit nur zwei Abstraktionsebenen auskommt.
Mi, 11. September 2019
Logik der Eisenbahn-Sicherungstechnik
Die Bahn betreibt einen hohen Aufwand, um den Zugverkehr sicher zu gestalten und Unfälle zu vermeiden. Bei den heute gefahrenen hohen Geschwindigkeiten dennoch eine gute Auslastung der Bahntrassen zu erreichen, ist eine Herausforderung. Der Vortrag stellt die traditionellen Sicherungsmaßnahmen dar und stellt ihnen moderne Verfahren und deren Logik gegenüber.
Mi, 14. August 2019
Gregor Seiler, ETH Zürich, Institute of Theoretical Computer Science
Public-Key: Kryptographie und Quantencomputer
Die public-key Kryptographie stellt unter anderem Methoden bereit, mit denen sich zwei fremde Parteien über einen unsicheren Kanal, z.B. das Internet, auf einen gemeinsamen geheimen Schlüssel einigen können, und zwar so, dass ein mithörender Angreifer den Schlüssel nachher nicht kennen kann. Den Schlüssel können die beiden Parteien dann benutzen, um Nachrichten sicher verschlüsselt auszutauschen.
Im ersten Teil des Vortrags werde ich das wichtigste Schlüsselaustausch-Verfahren, genannt ECDH, vorstellen. Die Sicherheit von ECDH basiert, wie die aller anderen bekannten solchen Verfahren auch, auf der Unlösbarkeit eines bestimmten mathematischen Problems. Für heute verfügbare Computer ist die Schwierigkeit dieses Problem gut untersucht. Auf der anderen Seite wissen wir aber, dass das Problem für eine neue Klasse von Computern, den Quantencomputern, relativ leicht zu lösen ist und ECDH deshalb unsicher gegenüber diesen womöglich bald existierenden Computern ist.
Im zweiten Teil des Vortrags werde ich auf die Bedrohung durch Quantencomputer eingehen und einen Einblick in den aktuellen Forschungsstand zu alternativen quantensicheren kryptographischen Verfahren geben.
Mi, 19. Juni 2019
Lothar B. Blum, Dipl.-Designer
Modelle und Modellierungsprozesse im User Experience Design
In den vergangenen Jahren wurden die nutzerzentrierten Methoden des User Experience (UX) Designs immer wichtiger für erfolgreiche Softwareentwicklung. Einige davon werden aus theoretischer Sicht und anhand von Beispielen aus der Praxis erläutert.
Darüber hinaus wird der Versuch unternommen, diese Methoden in Beziehung zu setzen mit den Erkenntnisgegenständen und Vorgehensweisen der Ontologie.
Mi, 15. Mai 2019
Prof. Dr. Melanie Siegel, Hochschule Darmstadt
Sentimentanalyse für die deutsche Sprache
Bei der Sentimentanalyse geht es darum, aus Social-Media-Daten und Nutzerforen automatisch statistische Informationen darüber zu extrahieren, was die AutorInnen mögen oder nicht. Das ist z.B. für Firmen relevant, die wissen wollen, wie ihre Produkte auf dem Markt ankommen. Gleichzeitig ist es ein spannendes Forschungsthema.
Die meisten Verfahren dafür werden für die englische Sprache entwickelt. Im Vortrag wird das Forschungsgebiet mit Bezug auf die deutsche Sprache vorgestellt und gezeigt, wie die Inhalte in der Hochschullehre vermittelt werden.
Mi, 10. April 2019
Autorschaftsanalyse
Mit zunehmender Digitalisierung in unserer heutigen Zeit entstehen neue Wege der Kommunikation auf Basis von Sprach-, Bild- oder Videobotschaften.
Trotz dieser zählen Texte jedoch nach wie vor zu den primären Informationsträgern.
Texte enthalten gegenüber anderer Dateiformate keinerlei Metainformationen, die eine nähere Auskunft über ihren Ursprung preisgeben.
Die Frage ist also: Welche Person steht hinter dem Text?
Mi, 13. März 2019
Ein Ontologie-basiertes Benachrichtigungs-System, mit natürlich-sprachlicher Benutzerschnittstelle
Zentrale Funktion des Systems ist, Benutzer über für sie wichtige Ereignisse zu informieren. Hierzu kann der Benutzer Regeln definieren, die permanent von einer Inferenz-Maschine überwacht werden.
Sowohl die Definition dieser Regeln, als auch die Benachrichtigung des Nutzers, geschieht in natürlicher Sprache. Die Kommunikation kann, in beide Richtungen z.B. per E-Mail, verschiedene Messenger-Dienste oder einem System, wie Siri erfolgen. Z.B.: Schicke mir eine Nachricht, wenn Phil Collins im Umkreis von 100 km von meinem Wohnsitz auftritt, wenn die SAP-Aktie abstürzt, wenn vor meiner Haustür Glatteis ist, wann das nächste Spiel von Darmstadt 98 ist. Zudem können Dialoge, wie z.B. Folgefragen mit dem System geführt werden. Die Kommunikation ist in einer Reihe von verschiedenen Sprachen (zur Zeit 9 Sprachen) möglich.
Zur Beantwortung der Fragen können sowohl kommerzielle Datendienste (deutsche Börse, Wetter-Dienste) als auch öffentliche Quellen, wie Wikipedia herangezogen werden.
Der Vortrag geht auf die Architektur und technische Umsetzung des
Benachrichtigungs-Systems ein. Anhand praktischer Beispiele wird die
Funktion demonstriert. Teilnehmer, die einen WhatsApp-Account haben,
können das System während des Vortrages selbst ausprobieren.
Weblink mit mehr Info: https://robb.ee/NAS/
Mi, 13. Februar 2019
Kontext in der Ontologie
Die meisten Systeme zur formalen Wissensrepräsentation betrachten „Wissen“ als die Summe bekannter Tatsachen innerhalb der Problemdomäne. Als Tatsache wird eine Aussage bezeichnet, der der Wahrheitswert „wahr“ zugeordnet wird. Enthält das System eine Aussage (zum Beispiel „Hans ist Vater von Maria“), dann gilt diese innerhalb des Systems als Tatsache, und zwar unter allen Umständen.
In der Realität ist der Wahrheitsgehalt von Aussagen jedoch oft abhängig von Randbedingungen, die wir unter dem Begriff „Kontext“ zusammenfassen wollen. Der Kontext kann beispielsweise zeitlich sein („Angela Merkel ist Kanzlerin der Bundesrepublik Deutschland“), eine soziale Rolle beschreiben („Hans ist Vater von Maria und Angestellter bei Siemens“) oder einen Blickwinkel bzw. eine Meinung widerspiegeln („Die Krim ist Teil der Ukraine / eine autonome Republik und Teil der Russischen Föderation“). „Kontext“ ist eine Entität, die den Wahrheitswert einer Aussage beeinflusst.
Ein Streitpunkt innerhalb der Ontologiegemeinschaft besteht in der Frage, ob Kontext selbst Gegenstand der Ontologie ist oder als externe Entität behandelt werden soll, welche die Ontologie von außen beeinflusst. In seinem Vortrag gibt Ralph Schäfermeier einen Überblick über den aktuellen Stand der Diskussion und stellt seinen eigenen Standpunkt dar. Im Anschluss stellt er Ansätze zur Darstellung von Kontext in verschiedenen Wissensrepräsentationssystemen vor.
Mi, 16. Januar 2019
Polyduktive Theorie – von C. S. Peirce bis heute
Hat sich mathematische Logik anfangs mit streng logischen Schlussfolgerungen befasst, so hat sich das Feld mittlerweile erweitert. Mittlerweile sucht sie auch nach Wegen, systematisch Hypothesen zu finden, die sich dann in einer logischen Überprüfung bewähren müssen.
C. S. Peirce, eher bekannt für seine Arbeiten zur Semiotik, hat auch hierfür die Grundlagen gelegt, auf die Andere dann weiter aufbauen konnten.
Mi, 12. Dezember 2018
Verstehen als unendliche und unabschließbare Aufgabe –
Versuch einer Rekonstruktion von F. Schleiermachers Hermeneutik als
einer Kunstlehre des Verstehens mit C.S. Peirce's Semiotik. (Fortsetzung)
Beim Vortrag von Dr. Dittmer im November ist es immer wieder zu Missverständnissen gekommen, im Zusammenhang mit dem Begriff „Interpretant“. Diesen Begriff verwendet Sanders Peirce innerhalb seines Zeichenkonzepts. Es handelt sich dabei um eines von drei Elementen innerhalb seines Konzepts, das einen erreichten Stand im Prozess des Verstehens darstellt. Von daher gesehen ist es selber auch wieder ein Zeichen / Repräsentamen. Gerade dadurch wird der „unendliche semiotische Prozess“ generiert. Und mit gerade diesem Element der Theoriestruktur verbindet sich die Leistungsfähigkeit des Modells. Der „Interpretant“ ist nicht identisch mit dem „Interpreten“.
Herr Dr. Dittmer, wird das Konzept noch einmal erläutern, unter besonderer Berücksichtigung des Begriffs des „Interpretanten“. Danach wollen wir uns Zeit für Fragen und Diskussion nehmen.
Für alle, die sich etwas vorbereiten möchten, steht das Manuskript hier noch einmal bereit:
Mi, 14. November 2018
Verstehen als unendliche und unabschließbare Aufgabe –
Versuch einer Rekonstruktion von F. Schleiermachers Hermeneutik als
einer Kunstlehre des Verstehens mit C.S. Peirce's Semiotik.
Ausgehend von einer Analyse von Schleiermachers Hermeneutik (Allgemeine Einleitung) geht es um eine Nachzeichnung des Neuansatzes, den er für das Verstehen markiert. Dabei spielt nicht nur die Korrespondenz von Reden und Verstehen, der Textrezeption und der Textproduktion eine Rolle, sondern auch der doppelte Horizont von Sprache und Geschichte als dynamischen Systemen.
Das Moment der Unendlichkeit und der spezifische Charakter beider Referenz-Horizonte führt dann zu einem komplexen Begriff bzw. einem dynamischen Verständnis von Verstehen. Eben dieses kann dann mi t Hilfe der Semiotik von C.S. Peirce terminologisch präziser gefasst werden.
Mi, 17. Oktober 2018
Der Fortschritt des Nichtwissens und die Herausforderungen der Nichtwissensgesellschaft
Das Nichtwissen gilt als Ansporn der Wissenschaften, wenn irgend möglich soll es eine bloße Wissenslücke bezeichnen, die früher oder später geschlossen wird. In den Zeiten einer datenintensiven, beispielsweise auf Simulationsmodelle gestützten und auf Komplexitätssteigerung gerichteten Forschung werden die Wissenschaften zunehmend nichtwissenstolerant.
Auch Regulierungsbehörden, technische Sicherheitskulturen, öffentliche Diskurse lernen, mit Nichtwissen umzugehen. Wenn vor einigen Jahren noch die Zukunft der modernen Industriegesellschaften über ihre "knowledge economies" definiert wurde, ist jetzt eine gesellschaftliche Kompetenz gefordert, sich an den Wissensgrenzen aufzuhalten und auch die Technologien zu verantworten, die intellektuell nicht nachvollziehbar sind.
Diskutiert werden Gründe hierfür, aber auch Herausforderungen und Umgangsweisen für eine demokratische Gesellschaft.
Mi, 8. August 2018
Mensch-zentrierte Modelle und Methoden für die Beinprothesenentwicklung
Für die Entwicklung von (robotischen) Beinprothesen ist die Erfahrung der Systeme durch Nutzerinnen und Nutzer entscheidend. Beispielsweise könnten sich diese wünschen, dass sie gar nicht wahrnehmen, statt ihres natürlichen Beins eine Prothese zu tragen. Die Prothese muss dafür viele Bewegungen ermöglichen und sich an die Situationen und sogar an die Absichten der Nutzerinnen und Nutzer anpassen. Und das, möglichst ohne dessen Aufmerksamkeit zu erfordern.
Die Forschungsgruppe „Mensch-Mechatronik-Synergie“ beschäftigt sich mit Modellen und Methoden, um diesem Ideal möglichst nahe zu kommen. Dr. Beckerle leitet die Gruppe und wird uns von den Forschungsansätzen und Ergebnissen seines Teams berichten.
13. Juni 2018
Die Vermessenheit der Denkmaschine:
Wissen in Zeiten Künstlicher Intelligenz
Das Wissen der Menschheit wächst rasant. Seit einigen Jahren produzieren Maschinen immer mehr Daten. Und Künstliche Intelligenz ist angetreten, daraus Wissen zu erzeugen.
Das wirft vertrackte Fragen auf:
- Welches Wissen erschaffen Denkmaschinen?
- Und von welcher Qualität ist dieses Wissen?
Eines ist jetzt schon klar: Antworten werden uns entweder beruhigen oder erschrecken, aber in jedem Fall herausfordern.
In der Diskussion kam das Thema darauf, ob und wann KI die menschliche Intelligenz überflügeln wird. In diesem Zusammenhang verwies Herr Holtel auf Kristian Hammond und sein "Das Periodensystem der KI", das helfen soll, die Komplexität des Themas besser zu verstehen.
16. Mai 2018
Arbeit, Technik und Organisation –
Gedanken zu wechselseitigen Abhängigkeiten und ihren Folgen
Arbeitstätigkeiten, Technikentwicklung und Organisationen stehen in einem komplexen, gleichwohl engen Zusammenhang. Die Debatten darüber sind jedoch oft von einem mangelnden Verständnis der Zusammenhänge geprägt, sowie von einseitigen Erklärungsansätzen (z.B. Technikdeterminismus einerseits, freie Gestaltbarkeit andererseits).
Der Vortrag wird sich an folgender Gliederung orientieren:
- Historischer Überblick, wie sich diese Bereiche abhängig voneinander verändern
- Lupenartige Betrachtung der gegenwärtigen Entwicklungstendenzen, insbesondere unter dem Einfluss von Digitalisierung und Wissens-Technologien
- Praktische Konsequenzen aus dieser Analyse
Aufsätze zum Thema:
11. April 2018
Ontologie im Engeneering –
Die Herausforderung und Lösungsstrategien
Es gibt heute viele Konzepte für Ontologien. Hier wird davon ausgegangen, dass eine Ontologie eine Struktur meint, die komplementär zu einer bestimmten Sprache definiert wird. Da es sehr viele Sprachen in vielfältigsten Anwendungskontexten gibt, wird hier als Beispiel ein Engineeringskontext gewählt, innerhalb dessen Ingenieure versuchen ein Problem in eine Lösung zu überführen. Die Ingenieure erscheinen hier als Akteure, die ihre Wahrnehmung von Welt zur Sprache bringen. Dazu benutzen Ingenieure mehrere Sprachen simultan. An einem Beispiel wird untersucht, welche implizite Ontologie sie dabei benutzen und wie sich dies in einer algebraischen und dann algorithmischen Versprachlichung auswirkt.
14. März 2018
Ontologie der Daten
In dem Vortrag wird eine Top-Level-Ontologie der Daten vorgestellt. Für eine Grundlegung der Data Science ergeben sich verschiedene Aufgaben, die insbesondere die folgenden vier Problemstellungen umfassen.
- Was sind Daten und wie lassen sie sich klassifizieren? (Semantikproblem)
- Entwicklung von Methoden für die Erfassung und Messung von Daten (Akquisitionsproblem)
- Entwicklung eines formalen Systems für die korrekte Repräsentation von Daten (Repräsentationsproblem)
- Entwicklung von Methoden für die Evaluierung und Nutzung von Daten für relevante Anwendungen (Anwendungsproblem)
Schwerpunkt des Vortrags ist die Behandlung des Semantikproblems für Daten (1). Als Rahmensystem für die Begründung einer Datensemantik wird die Top Level Ontologie GFO (General Formal Ontology) verwendet. Daten werden durch drei Bestimmungsstücke spezifiziert: durch eine Eigenschaft (deren Instanzen Attributive genannt werden), durch einen Träger der Eigenschaft, und durch eine Relation, die die Eigenschaft mit dem Träger verbindet. Es wird ferner ein Vorschlag für die Repräsentation von Daten diskutiert. Dieser Vorschlag beruht auf einer ontologischen Analyse des Begriffs eines Datenelements, wie er in dem ISO-Standard 11179 eingeführt wurde.
14. Februar 2018
Wir ersaufen in Daten, dabei dürsten wir nach Wissen
–
Wieviel Information steckt in Daten?
Seit 70 Jahren gibt es eine ausgearbeitete Informationstheorie. Sie bildet die Grundlage für die Auslegung von Telefon- und Funktechnik, Datennetzen, für Datenkompression und Verschlüsselung. Damit ist sie aus der heutigen Daten- und Kommunikations-Technik nicht mehr weg zu denken.
Die Theorie unterscheidet deutlich zwischen Daten einerseits und Information auf der anderen Seite. Aber nur Wenige sind mit diesen Überlegungen vertraut.
Ein Versuch, stärker für das Thema zu sensibilisieren und ein paar Missverständnisse auszuräumen.
17. Januar 2018
„OdeNet“ – ein deutscher Beitrag zur „Multilingual Open WordNet Initiative“
WordNet ist ein semantisches Netz, das Wörter in Synonymgruppen („Synsets“) organisiert und diese dann unter semantischen und lexikalischen Gesichtspunkten miteinander verknüpft. Semantische Netze im WordNet-Format werden mittlerweile in zahlreichen Projekten eingesetzt, die sich mit der maschinellen Verarbeitung natürlicher (menschlicher) Sprache beschäftigen. WordNet wurde ursprünglich für die englische Sprache entwickelt und ist kostenlos und öffentlich zugänglich.
In der „Multilingual Open WordNet Initiative“ wurden in einer internationalen Kooperation weitere Netze für eine Reihe von Sprachen entwickelt, die auch untereinander verknüpft sind, so dass sie auch für Übersetzungen herangezogen werden können. Für die deutsche Sprache existierte bislang nur ein kostenpflichtiges und nicht verknüpftes Angebot. Mit OdeNet soll sich das ändern.
Melanie Siegel wird diese deutsche Initiative vorstellen und erläutern, welche Herausforderungen es dabei zu meistern gilt und wie sie angegangen werden.
13. Dezember 2017
Ontologie und Semantik
Ontologien beschreiben semantische Zusammenhänge.
In der Sprachwissenschaft stehen sich jedoch konkurrierende Vorstellungen gegenüber, was Semantik eigentlich ist und wie sie sich beschreiben lässt.
Der Vortrag versucht zu skizzieren, welches Semantikverständnis dem Konzept Ontologie zugrunde liegt.
Mi, 8. November 2017
Torten, Türmchen, Pyramiden, Balken, Bäume, Netz & Pfeil
–
oder Die Hieroglyphen der Informationsgrafik
ein Versuch von Reinhart Büttner.
Reinhart Büttner ist interdisziplinärer Künstler und Theoretiker, beratender Psychologe und Dozent
18. Oktober 2017
Multimodale Dokumente
Unter „Sprache“ verstehen wir auf Anhieb, in Worte gefasste, gesprochene oder geschriebene Sprache.
In technischen Dokumenten haben wir es aber regelmäßig auch mit bildlichen Darstellungen zu tun: Diagramme, Schaltpläne, Technische Zeichnungen und ähnliches. Sie sind ein wichtiges Werkzeug der Informationsübermittlung und stellen damit eine mächtige Erweiterung dessen dar, was wir gemeinhin unter Sprache verstehen.
13. September 2017
Die öffentliche Semantik von „Experiment“ –
Arbeitsweisen der Linguistik
Mit welchen Methoden und Ansätzen arbeitet eigentlich die Linguistik?
Am Beispiel des Wortes „Experiment“, seines Bedeutungsspektrums und seiner Rolle in öffentlichen Diskursen wird uns Frau Prof. Janich Einblicke in linguistische Arbeitsweisen geben.
Mi, 12. Juli 2017
Warum haben Menschen Vorurteile ?
Der Vortrag geht Fragen nach, wie:
- Wie entstehen Vorurteile ?
- Wie „pflegen“ wie sie ?
- Was ist „Kultur“ ?
Und was haben Vorurteile mit Kultur zu tun ? - Wie geht jeder Einzelne von uns mit Vorurteilen um ?
Die folgenden Bücher hatte Lena mitgebracht:
- Handbuch Interkulturelle Kompetenz: Kultursensitive
Arbeit in der Kita
Bettina Lamm (Hrsg.), ISBN: 978-3451375354 - WIR: Alles, was man über uns Deutsche wissen muss
Veronika Immler, ISBN: 978-3426275238 - Katalog des 4. LUMIX Festival für jungen Fotojournalismus
Mi, 28. Juni 2017
Von "Circa" zur begrifflichen Skalierung
Wir gehen aus von den reichhaltigen Aspekten des Ungenauen und Ungefähren, die Reinhard Büttner am 10. Mai 2017 in seinem Vortrag "Circa" im Ontologenkreis angesprochen hat.
Darauf basierend werden nun Grundideen erkundet, mit denen man in der sprachlichen Praxis das Ungefähre versucht, begrifflich zu fassen. Die zugehörigen pragmatisch ausgewählten kontextuellen Beschreibungen lassen sich oft in formalen Kontexten angeben, die bei der begrifflichen Skalierung verwendet werden. Dadurch erhält man eine sehr flexible Methode zur inhaltlich kontrollierten Repräsentation und Visualisierung von Daten in der gewünschten Granularität.
Mi, 10. Mai 2017
circa – Genauigkeit und Approximation
Mi, 26. April 2017
Clinical Decision Support
Für Ärzte im klinischen Alltag ist es eine große Herausforderung, ständig bezüglich klinischer Studien, neuer Medikamente und Behandlungsmethoden auf dem Laufenden zu bleiben. Informationsdienstleister bieten zunehmend Dienste an, um diesen Informationsbedarf zu decken: Medizinische Literatur, klinische Empfehlungen, Wechsel- und Nebenwirkungen von Medikamenten etc. Im Klinikalltag kommen solche Informationsdienstleistungen heute aber noch selten an.
In dem Vortrag wird ein Ansatz für personalisierte Medizin vorgestellt, bei dem Ärzte Zusatzinformationen passgenau zum aktuell behandelten Patienten erhalten, ohne aktiv danach suchen zu müssen.
Mi, 8. März 2017
Data Science, Maschinelles Lernen und Ontologie
Der Vortrag orientiert sich an der folgenden Agenda:
- Womit befassen sich Data Science und Maschinelles Lernen heute?
- Themengebiete und typische Klassen von Algorithmen
- Daten als Gegenstand der Forschung.
- Klassifikation der Beschaffenheit von Daten und ontologischer Blick auf die Daten
- „Categorical data analysis“ aus der Sicht der Semantik
- (Abstrakte) Datentypen
Mi, 8. Februar 2017
Informationsextraktion – Methoden und Anwendungen
Die Mengen an Texten, die täglich produziert werden und gelesen werden müssen, nimmt rasant zu. Mit der automatischen Indexierung ist es schon seit einer geraumen Zeit möglich, Texte zu klassifizieren. Die Informationsextraktion geht darüber hinaus: Texte werden automatisch und gezielt nach Informationen durchsucht, und diese Informationen werden in strukturierter oder sogar visualisierter Form dargestellt. Dabei geht man von gezielten Anfragen an Texte aus, sucht z.B. Informationen über wirtschaftliche Prognosen in Lageberichten großer Firmen oder Anzeichen für einen „Shitstorm“ in sozialen Medien. Google Now erkennt z.B. in E-Mails Terminabsprachen und weist den Nutzer auf den Termin hin.
Dafür reicht es nicht, Stichwörter zu extrahieren, sondern es müssen auch Relationen zwischen Ereignissen/Handlungen und Objekten in Texten erkannt werden – ein Schritt in Richtung Analyse der Semantik.
Mi, 11. Januar 2017
Die Komposition, Definition, Benennung und Nummerierung von Begriffen
Hermann Bense beschäftigt sich damit, Begriffe (Englisch: concept) eindeutig zu bezeichnen und zu nummerieren. Dabei geht es auch darum, die Bedeutung eines Wortes über Definitionen zu erschließen und um möglichst große Unabhängigkeit von einer bestimmten Sprache.
Die Nummerierung erfolgt so, dass in der Zahl zu einem Begriff auch alle Teilbegriffe kodiert sind.
Hermann Bense geht davon aus, dass ihm ca. 300-400 Grundbegriffe reichen, um daraus alle anderen Begriffe durch Komposition dieser Grundbegriffe zu erzeugen.
In seinem Vortrag wird er uns erläutern, welche Hürden und Stolpersteine es dabei zu überwinden gilt, welche bekannten Ansätze er dabei betrachtet und wie er alles zu einer Lösung verbindet.
Mi, 9. November 2016
Auf dem Weg zu einer allgemeinen Theorie lernender
semiotischer Systeme
(Für biologische und technische Systeme)
Prof. Döben-Henisch forscht schwerpunktmäßig über die Themen „lernende Systeme" und „Mensch-Maschine Interaktion“. Er verbindet beide Themen über das im angelsächsischen Rahmen stark verbreitete Paradigma des „Systems Engineerings (Management)“. Als geeignetes Konzept für die theoretische Beschreibung des Verhaltens von Menschen und intelligenten Maschinen im Engineering Prozessen hat sich dabei der Begriff des „lernenden semiotischen Systems“ herausgestellt. Dadurch lassen sich Themen wie z.B. psychologisch motivierte Verhaltensmodelle, maschinelles Lernen, künstliche Intelligenz, oder kognitive Architekturen innerhalb der normalen Engineeringprozesse als Bestandteil der üblichen Verhaltensmodellierung verorten. Lernende semiotische Systeme kann es in vielen Realisierungsstufen geben. Vom theoretischen Potential her können sie u.a. selbständig im Kontakt mit Menschen in ihrer Umgebung lernen und symbolisch kommunizieren, ohne dass sie in herkömmlicher Weise für ihre Aufgabe programmiert werden müssen.
Den derzeitigen Stand seiner Forschungen – auch in der aktuellen Kooperation mit Institutionen in Südafrika – wird er in diesem Kolloquium mit uns diskutieren.
Vortrag und Diskussion orientieren sich an folgender Agenda:
- Eine Theorie lernender semiotischer Systeme innerhalb des allgemeinen Systems Engineering Prozesses. Worum geht es?
- Was ist ein lernendes semiotisches System und was bedeutet das für eine industrielle Nutzung?
- Die Integration von kognitiven Prozessen und künstlicher Intelligenz innerhalb des Paradigmas lernender semiotischer Systeme
- Anmerkungen zur Rolle von Ontologien innerhalb lernender semiotischer Systeme
- Anmerkungen zu einer Industrie 5.0
Mi, 12. Oktober 2016
Das Andere der Natur. Instabilität als Schlüsselbegriff einer aktuellen Naturphilosophie
Aktuelle Entwicklungen der Natur- und Technikwissenschaften werfen ein überraschend neues Licht auf klassische Brennpunkte der Naturphilosophie. Ein Anderes der Natur zeigt sich: Natur ist Natur, insofern sie zur Instabilität fähig ist. Instabilitäten gelten als Quelle des Werdens und Wachsens, ja als Hintergrund des Lebens.
Angesichts dieser Erkenntnisse eröffnen sich neue Wege naturphilosophischen Denkens. Vielfach kontrovers diskutierte Themen der Wissenschaften können zusammengeführt und verständlich gemacht werden: Selbstorganisation, Zeit, Zufall, Kausalität, Kosmos und Raum, Geist und Gehirn, Technik, Ästhetik, Ethik und Umwelt sowie Wissenschafts- und Technikfolgen.
Zu diesem Themenkomplex hat Prof. Schmidt im letzten Jahr auch ein Buch veröffentlicht:
Das Andere der Natur: Neue Wege zur Naturphilosophie
ISBN: 978-3-7776-2410-5
Hirzel Verlag; 2015
Mi, 14. September 2016
Ontologien bedrängen Onkologen:
IBM Watson bringt Ärzte in die Bredouille
Seit 2012 schaut Watson Oncology den Medizinern über die Schulter, ein Expertensystem zur Diagnose und Therapie von Krebs. Dafür hat es den Inhalt von ca. 200 Fachbüchern inhaliert und wertet ständig 290 Fachjournale aus. Der Wissenskorpus umfasst mittlerweile 12 Mio. Seiten.
Grundlage für das Verarbeiten der Texte ist eine Ontologie, die sich autopoietisch weiter entwickelt. Watson lernt unentwegt: Einerseits aus eingespeister Literatur, andererseits aus den Dialogen, die es bereits mit den Ärzten geführt hat. Theoretisch repräsentiert das System jederzeit den aktuellen Stand des Wissens.
Tatsächlich begann vor vier Jahren ein Experiment über Ethik und Moral: Das kühle Kalkül der Maschine trifft auf das emotionale Ringen um die Behandlung von Krebspatienten. Delegieren Ärzte ihre Therapieempfehlung bald an Maschinen? Welches Verhältnis entwickelt sich zwischen Onkologen und Software? Welche Kompetenz braucht es, um Denkmaschinen wie Watson Oncology auf Augenhöhe zu begegnen?
Das Unternehmen IBM drückt sich vor der Antwort. Es propagiert die Zukunft der personalisierten Medizin, für die Watson den Durchbruch schaffe. Ein Frage bleibt unberührt zwischen verunsicherten Patienten, überforderten Medizinern und Finanzinteressen der Versicherer und Kliniken: Wer entscheidet wirklich über die Krebstherapie, an der Schwelle zwischen Leben und Tod?
Stefan Holtel publiziert zu den Chancen und Risiken des Einsatzes künstlicher Intelligenz in Unternehmen und Organisationen. In diesem Jahr ist bereits erschienen:
Digitale Führerschaft braucht kognitive Kompetenz –
mit Dampfmaschinen für das Denken,
in: Petry (Hrsg.) Digital Leadership:
Erfolgreiches Führen in Zeiten der Digital Economy
ISBN: 978-3-648-08057-3
HAUFE Verlag; 2016
Mi, 13. Juli 2016
Einigungsprozesse in interdisziplinären Projekten
Wenn in einem Projekt Fachleute aus unterschiedlichen Fachgebieten zusammenarbeiten, dann müssen sie sich über ihren nun gemeinsamen Gegenstand austauschen können – trotz ihrer unterschiedlichen Fachsprachen und Terminologien.
Dass eine „gemeinsame Sprache“ aber oft erst mühsam errungen werden muss und was unter einer solchen „gemeinsamen Sprache“ konkret zu verstehen ist, wurde in einer Fallstudie über ein politikwissenschaftliches-physikalisches Projekt untersucht.
Frau Prof. Janich stellt Ergebnisse aus dieser Studie vor.
Mi, 8. Juni 2016
Top-Level-Ontologien – Welche gibt es und wozu sind sie gut?
Hermann Bense gibt einen Überblick über Top-Level-Ontologien und stellt die Populärsten von Ihnen vor: Worin unterscheiden sie sich und wo bestehen Gemeinsamkeiten? Außerdem stellt er mit der UMO-Ontologie einen Vorschlag für eine oberste Top-Ontologie vor.
Anatol Reibold wird danach einen Überblick über verschiedene Logiken geben, u.a. Syllogismen, Description Logic und mehr-sortige Prädikatenlogik und aufzeigen, wie man letztere verwenden kann um die UMO-Ontologie zu formalisieren.
Wer sich vorab mit dem Thema beschäftigen will, findet hier noch einige Informationen:
Mi, 11. Mai 2016
Zeit sein - zur Ontologie menschlicher Existenz
Es geht um Zeit als Form lebendiger Existenz. Die Zeitlichkeit des Menschen wird in der Regel als Begrenztheit seiner Existenz durch Geburt und Tod gesehen. Dagegen ist jeder Lebensvollzug in sich zeitlich.
Der Vortrag war frei gehalten. Es existiert deshalb kein Manuskript.
Bücher-Auswahl von Prof. Böhme:
- Bewustseinsformen.Wilhelm-Fink-Verlag, (2013) ISBN: 978-377055530-7
- Gut Mensch sein.
Mi, 13. April 2016
Prof. Dr. Thomas Bernhard Seiler
Begriffe: Denkeinheiten oder Spracheinheiten (Fortsetzung)
Wir sind in unserem Denken und Reden auf Begriffe angewiesen. Wir versuchen mit ihnen die Welt zu greifen und uns über sie zu verständigen. Strittig ist, ob man Begriffe eher der sprachlichen Ebene oder eher der kognitiven Ebene zuordnen soll.
Dazu möchte Prof. Seiler einige Thesen vorschlagen, um sie gemeinsam weiter zu diskutieren und zu differenzieren. Eine Auswahl seiner Thesen:
- Es ist sinnvoll, zwischen persönlichen (mentalen) und konventionellen (öffentlichen) Begriffen zu unterscheiden.
- Persönliche oder mentale Begriffe sind keine Abbilder und auch keine Kategorien, sondern subjektive Theorien.
- Persönliche Begriffe sind abstrakt und idealisierend, entstehen aber im Allgemeinen nicht durch Abstraktion.
- Persönliche Begriffe sind prinzipiell analoge Denkmuster.
- Persönliche Begriffe sind keine bloß rationalen und kognitiven Gebilde, sondern haben wesentlich auch emotionale und motivationale Eigenschaften.
- Die Person kann die Bedeutung konventioneller Begriffe nicht aus der Sprache allein erschließen. Aus diesen Gründen ist die Bedeutung konventioneller Begriffe zweifacher Art:
-
- semantische Bedeutung
- persönliches Verständnis.
Darauf aufbauend wird Prof. Seiler die Konsequenzen seiner Thesen reflektieren.
9. März 2016
OntoVigilance
Ansätze zur automatisierten Erstellung umfassender, minimaler Informationskorpora
10. Februar 2016
Ontologien in der Medizin –
und wie man diese nutzen kann
Für kein anderes Fachgebiet existieren so viele kontrollierte Vokabulare, Taxonomien und Ontologien wie für die Medizin und verwandte Life Sciences. Klassifizierte Begriffe umfassen Krankheiten, Symptome, Körperteile, Medikamente, medizinische Verfahren und vieles mehr.
- Wie sind solche Ontologien aufgebaut?
- Für welche innovativen Anwendungen können diese genutzt werden?
- Was sind Schwachstellen und Probleme?
13.Januar 2016
Prof. Dr. Thomas Bernhard Seiler
Begriffe: Denkeinheiten oder Spracheinheiten ?
Wir sind in unserem Denken und Reden auf Begriffe angewiesen. Wir versuchen mit ihnen die Welt zu greifen und uns über sie zu verständigen. Strittig ist, ob man Begriffe eher der sprachlichen Ebene oder eher der kognitiven Ebene zuordnen soll.
Dazu möchte Prof. Seiler einige Thesen vorschlagen, um sie gemeinsam weiter zu diskutieren und zu differenzieren.
Eine Auswahl seiner Thesen:
- Es ist sinnvoll, zwischen persönlichen (mentalen) und konventionellen (öffentlichen) Begriffen zu unterscheiden.
- Persönliche oder mentale Begriffe sind keine Abbilder und auch keine Kategorien, sondern subjektive Theorien.
- Persönliche Begriffe sind abstrakt und idealisierend, entstehen aber im Allgemeinen nicht durch Abstraktion.
- Persönliche Begriffe sind prinzipiell analoge Denkmuster.
- Persönliche Begriffe sind keine bloß rationalen und kognitiven Gebilde, sondern haben wesentlich auch emotionale und motivationale Eigenschaften.
- Die Person kann die Bedeutung konventioneller Begriffe nicht aus der Sprache allein erschließen. Aus diesen Gründen ist die Bedeutung konventioneller Begriffe zweifacher Art:
- semantische Bedeutung
- persönliches Verständnis.
9. Dezember 2015
Professionelle Informationssuche jenseits des Web
Information ist heute ein selbstverständlicher Bestandteil fast aller professionellen Tätigkeiten. Einerseits zur Steuerung und Dokumentation der internen Produktions- und Dienstleistungs-prozesse, andererseits aber auch als „Rohstoff” der extern eingekauft wird.
In den letzten 50 Jahren sind weltweit eine Vielzahl von Organisationen und Unternehmen entstanden, die Dienstleistungen „rund um die Information“ anbieten. Umsatzzahlen und Zahlen zum Umfang der Datenbestände lassen erahnen, welchen Stellenwert dieser Informationsmarkt mittlerweile erreicht hat.
Der Informationsmarkt, seine Bedingungen, Werkzeuge und Player sind Gegenstand dieses Vortrags.
9. November 2015
Natural Language Generation für medizinische Dokumente
- Warum – Wie passt NLG in klinische workflows?
- Wie man es nicht macht – Warum textbausteinbasierte Ansätze i.d.R. scheitern
- Wie denn dann? – Welche spezifischen Ansprüche gelten für medizinische Texte?
- Und das soll gehen? – Ein praktisches Beispiel: bilinguale NLG-app zum Selbstbedienen
- Und wo ist hier die Ontologie? – Ontologiegestützte hybride NLG: Anforderungen an eine Ontologie für medizinische NLG-Anwendungen
- Präsentationsfolien
- Eine Zip-Datei der im Vortrag präsentierten Software „Suregen” kann hier herunter geladen werden. Nach dem entpacken „Suregen.exe” aufrufen. Die Software ermöglicht durch Anklicken die Ergebnisse einer Annamnese einzugeben und generiert daraus einen Text, wahlweise in unterschiedlichen Sprachen, eher fachlich oder in einer für den Patienten verständlichen Sprache.
12. Oktober 2015
Zertifizierung der Qualität semantischer Anwendungslösungen – Ein Plädoyer
Herr Dr. Hoppe berichtet über Erfahrungen bei der Vermarktung semantischer (insb. Ontologie u. Thesaurus-basierter) Anwendungen.
Anhand von drei Beispielen zeigt er auf wie wir durch Methoden der Statistik, Datenanalyse und Data Science bei der Vermarktung semantischer Technologien von rein qualitativen Marketingaussagen zu messbaren, reproduzierbaren und validierbaren quantifizierten Aussagen gelangen können.
Ziel ist, die Qualität semantischer Lösungen zu erfassen, zu dokumentieren, überprüfbar und vergleichbar zu machen.
14. September 2015
Warum Polykontexturalität? – eine Einführung
Die klassische mathematische Logik hat einen streng hierarchischen Aufbau. Sie duldet weder Widersprüche noch Selbstreferenzen und kommt mit wechselseitigen Abhängigkeiten (Henne-Ei) und unterschiedlichen Standpunkten nur schwer zurecht. Eine schmerzhafte Einschränkung.
Die Polykontexturalitätstheorie beinhaltet eine Erweiterung der klassischen Logik und versucht diese Lücken zu schließen. Praktische Anwendung findet sie u.a. im Bereich der Biologie, bei der Untersuchung natürlicher neuronaler Netze, die sich nicht an die Regeln der klassischen mathematischen Logik halten.
Wer das Thema vertiefen möchte, kann dies tun im Buch Joachim Pauls „TRANS- Reflexionen über Menschen, Medien, Netze und Maschinen. Aufsätze 1996 – 2013” (ISBN: 978-3844255027).
Dort vor allem:
- dem Kapitel „Denken denken” ab S. 225, vor allem ab S. 266
- zu McCulloch ab S. 277
- „Zugänge, oder: Das Wir und unsere Technik” (S. 16 ff)
- „Zum Begriff der Kybernetik bei Gotthard Günther” (S. 97 ff)
- „Begegnungen mit Heinz von Foerster” (S. 109 ff)
13. Juli 2015
Ontologien und semantische Netze in der Praxis
Anhand von Beispielen, möchte ich, Erfahrungen aus dem Einsatz semantischer Wissensrepräsentationen in Unternehmen mit Ihnen teilen und diskutieren. Dabei werden wir uns mit Fragen beschäftigen wie:
- In welchen Anwendungen setzen Industrieunternehmen Ontologien ein und warum?
- Was sind die Alternativen und was können semantische Wissensrepräsentationen besser?
- Welche Techniken der Wissensmodellierung werden in der Praxis angewandt, welche setzen sich nicht durch?
8. Juni 2015
Wissensorganisation
Frau Dr. Dahlberg ist eine der Pionierinnen im Bereich der Klassifikation und Wissensorganisation. Ihr besonderes Augenmerk und Interesse liegt dabei darauf, Informationen auch über Fachgrenzen hinweg verfügbar zu machen.
11. Mai 2015
Bis jetzt noch nicht – Zur Temporalität von Nichtwissenskonzepten
An verschiedenen Textbeispielen soll gezeigt werden, wie zentral die temporale Perspektive bei der Kommunikation von bzw. über Nichtwissen ist. Zudem wird die Frage diskutiert, ob die damit markierten Konzeptualisierungen von Nichtwissen im Diskurs womöglich selbst wieder einer bestimmten Chronologie folgen.
13. April 2015
Jetzt fangen wir los! – Versprecher und was sie uns über den Prozess der Sprachproduktion verraten
Versprecher sorgen meist erst einmal für Belustigung. Bei näherem Hinsehen tritt aber zu Tage, dass es ganz unterschiedliche Gründe gibt, warum uns ein falsches Wort über die Lippen rutschen kann.
Prof. Schade vom Fraunhofer-Institut für Kommunikation, Informationstechnik und Ergonomie erläutert uns an Beispielen, welche Arten von Versprechern es gibt, und vor allem, was sie uns darüber verraten, wie wir Sprache produzieren.
9. März 2015
Die Implementierung japanischer Sprache in Head-Driven Phrase Structure Grammar (HPSG) und was wir damit gemacht haben
HPSG ist ein Grammatikformalismus, mit dem man natürliche Sprachen (wie Japanisch) so nachbilden kann, dass die Interaktion der sprachlichen Ebenen Syntax, Semantik und Pragmatik dargestellt werden kann.
Der Vortrag zeigt auf, wie eine große Grammatik im Laufe mehrerer Jahre und in Kooperation mit Entwicklern von HPSGen anderer Sprachen entwickelt wurde.
Die Grammatik wurde in sprachtechnologischen Anwendungen eingesetzt, die stark auf semantischer Information basieren. Diese Anwendungen werden im Vortrag skizziert.
9. Februar 2015
Ontologien als Schlüsseltechnologie für die automatische Erzeugung natürlich-sprachlicher Texte
In den neuen Medien, vor allem im Bereich des Semantic Web, gibt es einen permanent steigenden Bedarf an originären Inhalten und redaktionellen Texten. Dies betrifft sowohl Medienunternehmen als auch Nicht-Medienunternehmen.
Der Großteil der Texte wird heute konventionell von Redakteuren erstellt. Dies gilt auch für Bereiche, in denen Texte recht schematisch und formalisiert auf Basis von Datenbankinformationen oder Exceltabellen erzeugt werden.
In diesem Vortrag wird ein ontologie-gestütztes Verfahren zur Generierung natürlich-sprachlicher Texte vorgestellt, welches auf die für das Semantic Web vereinbarte Konventionen zurückgreift Ziel ist es, Redakteure von der Erstellung von Texten zu entlasten, die in großer Anzahl und sehr schnell erstellt werden müssen und deren Erstellung keine journalistische Arbeit erfordert.
Der Vortrag steht im Rahmen des Buchprojekts: „Corporate Semantic Web„.
19. Januar 2015
Prof. Dr. Thomas Bernhard Seiler
Leistungen und Fallstricke des rationalen Denkens (Fortsetzung)
Nachdem der Vortrag am 10.11. von Thomas Bernhard, wegen der regen Diskussion und der fortgeschrittenen Zeit unterbrochen wurde, wird dieses spannenede Thema nun fortgesetzt. Es wird bei dieser Fortsetzung nun speziell um die noch ausstehenden „Fallstricke des rationalen Denkens” gehen.
Prof. Seiler schrieb dazu: Ich möchte insbesondere zeigen, welche Errungenschaften, aber auch welche Gefahren mit der ontogenetischen, aber auch kultur- und wissenschaftshistorischen Entwicklung des Denkens in und mit Begriffen verbunden sind.
- Präsentationsfolien
- Rationales Wissen und Denken Ein ergänzender Aufsatz.
12. Januar 2015
Semantische Suche im Bereich der Energieforschungsfürderung
”EnArgus„ ist ein Projekt zur Entwicklung eines zentralen Informationssystems für Energieforschungsvorhaben.
Das Projekt wird vom Bundesministerium für Wirtschaft und Energie gefürdert. Es soll helfen, staatliche fürderpolitik transparenter zu gestalten und die Bewertung von Technologieentwicklungen erleichtern.
In dem Vortrag wird das EnArgus-System in seiner aktuellen Version und in seiner Funktionsweise vorgestellt. Insbesondere wird aufgezeigt, wie eine Fachontologie zur Energieforschung entwickelt und in das System eingebunden wurde und welchen (wichtigen) Beitrag diese Fachontologie für die Funktion des Systems leistet.
Der Vortrag steht im Rahmen des Buchprojekts: „Corporate Semantic Web”.
8.12.2014
Stadt, Land, Fluss auf elektronisch
Provokante Fragen und Anmerkungen eines Zaungastes.
10.11.2014
Prof. Dr. Thomas Bernhard Seiler
Leistungen und Fallstricke des rationalen Denkens
Prof. Seiler schreibt dazu: Ich möchte insbesondere zeigen, welche Errungenschaften, aber auch welche Gefahren mit der ontogenetischen, aber auch kultur- und wissenschaftshistorischen Entwicklung des Denkens in und mit Begriffen verbunden sind.
13.10.2014
Dr. Frederik Janssen / Prof. Dr. Heiko Paulheim
Intelligente Datenauswertung mit Linked Open Data
Es geht darum Daten die im Internet verfügbar sind
ausfindig zu machen und miteinander zu verknüpfen, um so zu
neuen Erkenntnissen zu kommen.
Dazu werden zwei Fallstudien vorgestellt und besprochen.
Der Vortrag steht im Rahmen des Buchprojekts: „Corporate Semantic Web”.
8.9.2014
Corporate Semantic Web – Wie semantische Anwendungen in Unternehmen Nutzen stiften
Semantische Anwendungen stiften bereits heute in Unternehmen Nutzen, z.B. in den Branchen Telekommunikation, Logistik, Automotive, Tourismus, Bibliotheks- und Verlagswesen. Es erfordert aber besondere Fähigkeiten – technologischer und methodischer Art – erfolgreich semantische Anwendungen zu entwickeln. Dieser Vortrag gibt dazu Hinweise und Empfehlungen.
Er fasst Ergebnisse zusammen, die 2015 in einem gleichnamigen Buch beim Springer Verlag veröffentlicht werden.
14.7.2014
Das Tanzarchiv der Pina Bausch-Stiftung
Wie lässt sich Tanz beschreiben und für folgende Generationen aufbewahren, kategorisieren und auffindbar machen, ohne z.B. Stunden von Videomaterial sichten zu müssen?
In einem gemeinsamen Projekt der „Pina Bausch-Stiftung” und des „Institut für Kommunikation und Medien” (IKuM) der Hochschule Darmstadt wurde dies untersucht.
Die Herausforderungen, Missverständnisse und letztlich erfolgreichen Lösungen, hat uns Prof. Thull in seinem Vortrag erläutert.
- B. Thull. Das digitale Pina Bausch Archiv. In M. Wagenbach, editor, Tanz erben – Pina lädt ein, S. 59–73. Transcript: Bielefeld, 2014.
- B. Thull. The digitale Pina Bausch Archive. In M. Wagenbach, editor, Inheriting Dance – An Invitation from Pina, pages 59–73. Transcript: Bielefeld, 2014.
23.6.2014
Verfeinerung eines Ontologie-Schemas durch Konzepte der Formalen Begriffsanalyse
Ein Versuch, zwischen der Sprache der Informatiker für die Formulierung einer „Ontology” und der der Mathematiker zu vermitteln.
16.5.2014
Begriffsanalytische und modelltheoretische Messtheorie
Mit diesem Vortrag soll die von Erwin Tegtmeier kritisch
behandelte modelltheoretische Messtheorie von Krantz, Luce,
Suppes und Tversky in den allgemeineren Rahmen der
pragmatisch beGründeten und mathematisch formulierten
begriffsanalytischen Messtheorie eingebettet werden.
Auch die zugehörigen philosophischen Strömungen vom
Empirismus zum Pragmatismus sollen kurz angesprochen und
diskutiert werden.
4.4.2014
Die modelltheoretische Analyse der Skalierung
Mit der Relativitäts-Theorie kam im 20. Jahrhundert die Frage auf, wie sinnvoll es ist, Eigenschaften zu bestimmen, da sich die ermittelten Größen je nach Referenz-System unterscheiden können. Vielmehr wurde diskutiert sie als Ergebnis eines Messvorgangs zu verstehen und damit nicht als Eigenschaft, sondern als operationale Relation. Prof. Tegtmeier verteidigt in seinem Vortrag den Eigenschaftsbegriff, gegen die operationale Herangehensweise.
5.3.2014
Mehrere Blickwinkel in einem Wissensmodell
Ein verbreitetes Problem in Wissensmodellen ist, dass der selbe Sachverhalt von unterschiedlichen Betrachtern unterschiedlich gesehen wird. Ein gemeinsames Verständnis scheint zuweilen unmöglich oder ist zumindest nicht einfach zu erreichen. In einem Wissensmodell verschiedene Standpunkte nebeneinander zu berücksichtigen und gegebenfalls auch den Prozess, in dem sich Standpunkte verändern, daran wird seit vielen Jahren gearbeitet. Um den Stand der Entwicklung geht es in diesem Vortrag.
5.2.2014
Die Arithmetisierung der Syllogistik
- Die Syllogistik als Theorie des logischen Schließens und deren strukturelle Zusammenhänge.
- übersetzung der Struktur der Syllogistik in eine arithmetische Struktur, so dass jeder logische Schluss (der Syllogistik) in Form arithmetischer Rechnung nachvollzogen werden kann.
- Das heißt, jedem logischen Schluss entspricht eine arithmetische Aussage. Daran kann die Strukturähnlichkeit (Homomorphie) von Syllogistischem und Arithmetischem nachvollzogen werden.
8.1.2014
Semantische Graphen und Hypertrees -
2 Verfahren zur Visualisierung ontologischen Wissens
Herr Bense wird unter anderem über folgende Punkte sprechen:
- Konventionen für die graphische Darstellung ontologischer Konzepte
- Vergleich mit anderen Visualisierungskonzepten, z.B. Mindmaps
- Ontologien leichter entwickeln mit Visualisierungsverfahren
- Präzisere Suche auf Dokumenten mit „Hyperbolic Trees”
- Was steckt hinter dem „Google Knowledge Graph”?
4.12.2013
Ein Vorschlag für einen interdisziplinären
Ontologie-Begriff
Salopp gesagt gibt es heute in etwa so viele Ontologiedefinitionen wie Autoren, die darüber schreiben. In einem interdisziplinären Arbeitskreis wie dem Darmstädter Ontologenkreis hemmt diese Situation die Kommunikation.
Versucht man jedoch, über die verschiedenen Auffassungen hinweg eine Schnittmenge zu bilden, so schält sich durchaus ein Kern gemeinsamen Verständnisses heraus. Der Vortrag richtet sich auf diesen Kern als interdisziplinärem Vorschlag für eine Ontologiedefinition und zeigt anhand einer Reihe von Beispielen, wie die Definition für verschiedene Disziplinen spezialisiert bzw. zugeschnitten werden kann.
6.11.2013
Gedanken zu Modalitäten, insbesondere zur
Möglichkeit.
Ein Beitrag zur Ontologie.
- Zugang zur Begrifflichkeit: Modalität – Modalverben – Möglichkeit
- Philosophische überlegungen zur Möglichkeit:
- Aristoteles: Von der Physik zur Metaphysik
- Kant: Erkenntnis und Ontologie richten sich nach dem Erkenntnissubjekt und fallen damit zusammen
- Hartmann: Verschiedene Stadien der Möglichkeit;
nur das Realmögliche wird wirklich - Technik und Möglichkeit; Potenzen der Möglichkeit
9.10.2013
Ontologie und Semiotik
- Vortrags-Manuskript
- Im Nachgang des Kolloquiums kam es zu einer regen
Diskussion per Email. Prof. Zahn hat dies zum Anlass
genommen, in einem gesonderten Papier das Thema
„Abstraktion” noch einmal ausführlicher darzulegen:
Abstraktion für Ontologen und Informatiker
4.9.2013
Anne Simmerling, Prof. Dr. Nina Janich
Über Nicht-Wissen und unsicheres Wissen
- Präsentationsfolien
- Nüchterne Forscher träumen ... (ergänzender Aufsatz dazu)
3.7.2013
Ontologie und Semiotik
5.6.2013
VOLAP: 3-Dimensionale Darstellung agiler semantischer Netze
8.5.2013
Evolution des Wissens –
Hypothesen einer evolutionären Erkenntnistheorie
3.4.2013
Erstellung einer Norm –
Ein Erfahrungsbericht
27.2.2013
Anwendung von Ontologien in Kunst und Bibliothekswesen
Fernöstliche Ontologie –
Eindrücke und unordentliche Gedanken
21.9.2012
Prof. Dr. Dimitry E. Palchunov, Universität Novosibirsk
Ontologies for knowledge retrieval and generation
10.8.2012
Anwendungen der formalen Begriffsanalyse
4.7.2012
Dr. Javier Cumpa Arteseros, Complutense University of Madrid
Próte Ousía –
A Study of Metaphysical Reconstruction
30.5.2012
Einführung in die begriffliche Skalierung
4.5.2012
Einführung in die Formale Begriffsanalyse
9.3.2012
Formen des Wissens
Wahrnehmung - Biologie und Technik, ein Vergleich
16.9.2011
Ontologien im Wissensmanagement – Patentlösung oder Wunschtraum
Theorie und Praxis –
Ergänzende Betrachtungen zum Vortrag von Prof.
Andelfinger
Gesunde Vielfalt und Dialektische Entwicklung
Protokoll
6.5.2011
Was ist eigentlich Ontologie?
Informationen zu einer geplanten Veröffentlichung über unsere bisherigen Kolloquien
Ontologie Ingardens
Kritik an der Ontologie Ingardens
Protokoll
15.10.2010
Rückblick
Ontologie – Ein Puzzle
Selbstorganisierende Karten
Determinablen und Ähnlichkeit
Protokoll
11.6.2010
Rückblick
Janina Fengel, Prof. Dr. Michael Rebstock
Informatik-Anwendungsbeispiel: e-Business Integration
Ontologien für Wörterbücher
Protokoll
19.3.2010
Protokoll
Was ist Ontologie? (Philosophie)
Was ist Ontologie? (Psychologie)
- Die Darstellung ist so kurz, dass dafür kein eigenes Papier existiert. Siehe Protokoll.