Momentan zeichnet sich im Bereich der Lehr-/Lernsysteme ein starker Trend hin zu Web-Anwendungen ab, der sich beispielsweise in der weiten Verbreitung von universitären und schulischen Lernplattformen widerspiegelt. Interaktives, synchrones Arbeiten und Lernen in Gruppen im Web stellen allerdings höhere Ansprüche sowohl an pädagogische Ansätze als auch deren technische Implementierung. Der Vortrag stellt das EU-geförderte Projekt Metafora vor, in dem wir einen Ansatz zur Unterstützung des kollaborativen und selbstorganisierten Planens von Lernaktivitäten entwickeln (learning to learn together = L2L2). Neben der kollaborativen Grundarchitektur präsentieren wir auch auf regelbasierten Ansätzen beruhende intelligente Unterstützungsmöglichkeiten, die im Projekt entwickelt werden. Der Vortrag geht abschließend auch auf die Potentiale des Einsatzes und der Weiterentwicklung des Systems im Rahmen der AAU School of Education ein.
Does Neurodidactics imply Revolution, Evolution, Enrichment, or Provocation of Established Pedagogical Theories?
1. Oktober 2012
Issues to be considered when teaching courses in Informatics
Abstract: This presentation will discuss questions like: „Why introduce neurodidactics?“ „Why now?“ „What will the consequences be?“ A synthesis between pedagogy, psychology, powerful computers, molecular biology and neuroscience has resulted in development of different scanning technologies, which are based on modern physics. This has led to a paradigmatic change from external observations of human behaviour to internal studies of information processing, in vivo, in the human brain. „Will next generation of curricula for education have an underpinning in neurodidactics?“ „Will neurodidactics change pedagogy from art to science?“
Short-Bio: Aadu Ott is professor emeritus in Science and Technology Education at the University of Göteborg in Sweden. He is dozent in physics, but has mainly been active in the field of education, including compulsory schools and teacher training. He has during 30 years cooperated with Deutsches Museum in München with in service training of teachers in the History of Technology. He has also done research on neurodidactics using fMRI equipment and has had contact with ZNL, TransferCenter für Neurowissenschaft und lernen in Ulm. The last two years he has worked with the National Agency for Higher Education within a reform program for teacher education. He is now active in a program at Chalmers University of Technology which aims at creating a new kind of courses for students in technology. These students will, after five years of studies, receive a combination exam, including civil engineering and a teacher diploma.
Posted in TEWI-Kolloquium Kommentare deaktiviert für Does Neurodidactics imply Revolution, Evolution, Enrichment, or Provocation of Established Pedagogical Theories?
Characterization of ferromagnetic and piezoelectric transducer materials
24. September 2012
Electromechanical sensors and actuators are important components appearing in all disciplines of engineering. Transducer is a commonly used generic term for those components. In this respect, two important classes of materials are discussed: firstly, ferroelectric and piezoelectric materials, and secondly, magnetic and magnetostrictive materials. In order to predict a transducer’s behavior, the utilized materials have to be characterized precisely. The two most decisive aspects in characterization of those materials are the physical models used to describe the material behavior as well as the measurement methods for the determination of the model parameters. Both aspects are closely linked and, therefore, have to be taken into account simultaneously.
This talk starts with an introduction of the material classes and their properties. The use of these materials for well known applications like piezoelectric stack actuators, ultrasonic transducers and electrical power transformers is presented. Furthermore, the talk highlights the most modern fields of applications like magnetostrictive thin film micro-actuators for micro electromechanical systems (MEMS) and piezoelectric smart materials. After this overview, the talk focuses on magnetic materials, especially on magnetic large signal hysteresis effects. The scalar Preisach model is discussed and compared to other approaches. The motivation for its vectorial extension is given. The methods and measurement setups for parameter identification are explained, with focus on the Vector Vibrating Sample Magnetometer. The talk closes with an outlook on future applications of large signal models in numerical simulation and control engineering.
Posted in TEWI-Kolloquium Kommentare deaktiviert für Characterization of ferromagnetic and piezoelectric transducer materials
Methoden des Design- und Optimierungsprozesses für intelligente Sensoren
24. September 2012
Sensoren stellen die Schnittstellen zwischen der ”realen physikalischen” und der elektrischen/elektronischen (und digitalen) Welt dar. Nicht zuletzt aufgrund der stets steigenden Komplexität technischer Systeme nehmen nicht nur die Anzahl und die Aufgaben von Sensoren zu, sondern auch die Anforderungen an diese hinsichtlich Genauigkeit, Zuverlässigkeit und Sicherheit. Daneben sind auch zahlreiche weitere Anforderungen wie geringer Platz- und Energiebedarf oder geringe Kosten zu erfüllen
Um diesen hohen Anforderungen gerecht zu werden, werden oftmals „intelligente Sensoren“ eingesetzt, die neben einem (oder mehreren) Primärsensor(en) auch analoge und digitale Signalaufbereitung, Hard- und Software für Signalverarbeitung und Eigendiagnose sowie drahtgebundene oder drahtlose Kommunikationseinrichtungen aufweisen. Mitunter beinhalten derartige Sensoren eigene „Kraftwerke“, um sich aus der Umgebung mit Energie zu versorgen („Energy Harvesting“) und somit völlig autark arbeiten zu können. Für den Entwurf derartiger Systeme werden Methoden benötigt, die es den Designern ermöglichen, die Komplexität zu beherrschen.
In dem Vortrag werden Ansätze für den modellbasierten Design- und Optimierungsprozess von intelligenten Sensoren vorgestellt. Dabei spielen insbesondere die Themen Messunsicherheit, Zuverlässigkeit und Sicherheit eine große Rolle. Ein wesentlicher Aspekt ist die Berücksichtigung möglicher Störeinflüsse (Herstellungstoleranzen, Rauschen, Elektromagnetische Störer, Defekte, …) und deren Auswirkung während der gesamten Entwurfphase. Diese Vorgehensweise führt einerseits zu robusten Designs und erlaubt andererseits eine frühzeitige Erkennung von kritischen Faktoren, wodurch Fehlentwicklungen vermieden werden können
Posted in TEWI-Kolloquium Kommentare deaktiviert für Methoden des Design- und Optimierungsprozesses für intelligente Sensoren
Numerical simulation for electrical tomography sensor systems and robust parameter estimation using stochastic methods
24. September 2012
Electrical capacitance tomography (ECT) belongs to the class of so-called inverse problems which are the most challenging class of estimation problems due to their ill-posedness and their typically high-dimensional parameter spaces. In particular, ECT aims at determining electrical properties (the permittivity) of heterogeneous material distributions in inaccessible objects given sparse measurements. In order to obtain robust estimates as well as quantitative statements on parameter variability, additional information in form of prior knowledge about the unknown quantities is required. Such prior information might include system dynamics, empirical and analytical measurement models, the measurement noise mode, and certain constraints.
This talk addresses different numerical sensor modeling techniques and appropriate estimation approaches of determining process parameters in the presence of uncertainties by example. Uncertainty in recovered parameters arises from measurement noise, measurement sensitivities, model inaccuracy, discretization error, and a-priori uncertainty.
In this context, the ECT parameter estimation problem is formulated in a Bayesian inferential framework, by specifying a physically motivated prior distribution, and characterizing the statistics of measurement noise, to give a posterior distribution conditioned on measured data. The ECT sensor is simulated numerically by means of the finite element and the boundary element method. Markov chain Monte Carlo (MCMC) sampling with Metropolis-Hastings dynamics and particle filtering, notably useful for non-stationary problems, are investigated in terms of efficient exploration of the posterior distribution.
A key difference between the proposed statistical (Bayesian) approach and classical deterministic methods (e.g. Newton-type regularized optimization techniques) is that whereas regularization gives point estimates, typically using a data-misfit criterion, Bayesian methods present averages over all solutions consistent with the data. This leads to a marked difference in robustness of properties calculated from solutions. The proposed approaches are discussed for a reference problem of recovering the unknown shape and position of a constant permittivity inclusion in an otherwise uniform background. Statistics calculated in the reference problem give accurate estimates of inclusion area, and other properties, when using measured data.
Posted in TEWI-Kolloquium Kommentare deaktiviert für Numerical simulation for electrical tomography sensor systems and robust parameter estimation using stochastic methods
Smart Sensor Systems for Structural and Health Monitoring
24. September 2012
Over the last decades monitoring of engineering structures has become more and more important. Besides traditional sensor systems, Smart Sensor Systems, which inmany cases are put into practice by embodying active materials into the structures to be monitored, have gained an ever increasing attention for Structural and Health Monitoring. The proper distribution of the active materials, which constitute the sensing authority, over the structure, is of fundamental importance in order to gain specific information concerning the state of the monitored structure. In particular, sensing mechanisms, which enable the direct measurement of strains (e.g. piezoelectric sensors) have proven to be suitable sensing authorities for distributed sensing.
Moreover, embodied smart sensor systems eliminate the need for additional external sensor systems and they may as well be used as actuator systems; this further enables passive/active control using embodied sensors and actuators. The first part of the present talk is focussed on the development of novel easy-to-use methods for computing the distribution of smart sensor systems to measure kinematically relevant structural entities (e.g. the relative displacement between two points or the slope of the displacement field of a structure). A simple solution for this Sensor Design Problem is presented and different types of practically important distributed smart sensor systems are discussed; e.g. modal sensors and nilpotent sensors. Based on these findings, practical implementations utilizing piezoelectric sensors are introduced and numerically and
experimentally verified. A specific problem, to which the design methods are applied, is discussed in detail in the second part of the talk – Structural Health Monitoring of frame structures using piezoelectric sensor networks. These networks are designed to be highly sensi tive to damage by using nilpotent sensor networks, which result into a trivial signal, if the structure is undamaged. For damaged frames this particular type of sensor network facilitates the detection, localisition and quantification of damage. Analytical, numerical and experimental results are presented for a three-storey frame structure.
In the last part of the talk extensions to using the smart piezoelectric sensor systems as actuators as well are introduced; in particular, methods such as Self-Sensing Actuators and passive Shunt Damping, for which no additional physical actuator system is needed. Practical problems concerned with active health monitoring of frame structures and with noise reduction for thin plates complete the present talk.
Posted in TEWI-Kolloquium Kommentare deaktiviert für Smart Sensor Systems for Structural and Health Monitoring
Visual Programming and Visualization of Programming
15. September 2012
Abstract:
Learning programming is a difficult task and many students fail to complete introductory computer science courses. The talk will describe our research into two approaches to improve learning of programming.
Scratch is a visual programming environment intended for young people. They construct programs by dragging-and-dropping blocks labeled with commands and operations; the programs control the animation of sprites which provides a motivating context. We found that even middle-school students (age group 12-14) are capable of developing non-trivial software and, furthermore, they find it easier to learn professional programming languages when they reach secondary school. However, Scratch can cause students to develop bad programming habits that may be difficult to overcome and teachers must ensure that this doesn’t happen.
The other approach is to visualize the execution of programs written as text in professional programming languages. The Jeliot program animation system automatically generates detailed animations of programs written in the Java. Jeliot significantly facilitates learning because it provides a graphic display of the dynamic aspects of program execution that are hidden within the computer. An investigation into the use of Jeliot by secondary-school teachers showed a wide range of engagement, from full integration into the teaching practice to rejection caused by psychological factors.
Short CV:
Mordechai (Moti) Ben-Ari is a full professor in the Department of Science Teaching of the Weizmann Institute of Science, where he heads the computer science education group. He is the author of numerous textbooks, including Principles of Concurrent and Distributed Computation, and Mathematical Logic for Computer Science. His group, in collaboration with the University of Eastern Finland, developed the Jeliot program animation system. In 2004, he received the ACM/SIGCSE Award for Outstanding Contributions to Computer Science Education, and in 2009 he was elected as a Distinguished Educator of the ACM.
Posted in TEWI-Kolloquium Kommentare deaktiviert für Visual Programming and Visualization of Programming
Teaching Concurrency and Nondeterminism with Spin
15. September 2012
Abstract:
Spin is a model checker that is widely used for verification of concurrent and distributed systems. The talk will present techniques and tools for teaching concurrency and nondeterminism using Spin. Spin can replace concurrency simulators and can also generate scenarios that demonstrate errors like race conditions and starvation. The implementation of nondeterministic algorithms and finite automata in Spin will be described, together with the use of search diversity to demonstrate random algorithms and parallelism. The tools to be presented are: jSpin, a development environment for Spin; VMC, a tool that generates a diagram of the state space of a model; VN for visualizing nondeterminism; Erigone, a reimplementation of Spin designed for pedagogical use.
Short-Bio:
Mordechai (Moti) Ben-Ari is a full professor in the Department of Science Teaching of the Weizmann Institute of Science, where he heads the computer science education group. He is the author of numerous textbooks, including Principles of Concurrent and Distributed Computation, and Mathematical Logic for Computer Science. His group, in collaboration with the University of Eastern Finland, developed the Jeliot program animation system. In 2004, he received the ACM/SIGCSE Award for Outstanding Contributions to Computer Science Education, and in 2009 he was elected as a Distinguished Educator of the ACM.
Posted in TEWI-Kolloquium Kommentare deaktiviert für Teaching Concurrency and Nondeterminism with Spin
Rückblick: Algorithmen zum Verkleinern von digitalen Videos [Slides, Video]
26. Juli 2012
Der Rückblick zum TEWI-Kolloquium von Prof. Wolfgang Effelsberg am 23.07.2012 beinhaltet die Videoaufzeichnung sowie die Folien:
Video:
[iframe height=“350″ src=“http://video.aau.at/video.php?video=ftf_effelsberg.mp4″]
Slides:
erfordert dabei ein kleines Videoformat. Aber ein Großteil der digitalen Videos wird nach wie vor für ein großes Ausgabeformat gedreht, zum Beispiel für den PC-Bildschirm oder ein für ein HD-Fernsehgerät. Wie also kann man im Nachhinein aus großformatigen Videos kleinformatige erzeugen?
Wir stellen im Vortrag zunächst die nahe liegenden Techniken Scaling und Cropping kurz vor und argumentieren, dass diese in der Regel zu unbefriedigenden Resultaten führen. Ein neuerer Algorithmus ist das Seam Carving, bei dem man senkrechte und waagrechte Trajektorien minimaler Energie durch das Bild bestimmt und diese einzeln entfernt. Dabei bleiben die vom Betrachter als wichtig angesehenen Teile des Bildes in der Regel erhalten. Wir erklären zunächst das Seam Carving für Standbilder und erweitern den Algorithmus dann für Videos. Abschließend gehen wir näher auf eine Optimierung ein, die gerade Linien durch ein Bild beim Seam Carving besser erhält als der Standard-Algorithmus.
Kurz-Bio: Wolfgang Effelsberg erhielt 1976 das Diplom in Elektrotechnik an der Technischen Universtität Darmstadt und promovierte dort 1981 im Fach Informatik. Von 1981-1984 arbeitete er als Assistant Professor an der University of Arizona in Tucson und als Post-Doctoral Fellow bei IBM Research in San Jose, Kalifornien. Von 1984 bis 1989 war er am Europäischen Zentrum für Netzwerkforschung der IBM in Heidelberg tätig. 1989 nahm er einem Ruf an die Universität Mannheim an, wo er seither die Arbeitsgebeite Rechnernetze, Multimediatechnik und E-Learning in Forschung und Lehre vertritt.
Posted in TEWI-Kolloquium Kommentare deaktiviert für Rückblick: Algorithmen zum Verkleinern von digitalen Videos [Slides, Video]
Algorithmen zum Verkleinern von digitalen Videos
4. Juli 2012
Abstract: Die wachsende Leistungsfähigkeit von Multimedia-Handys (Smart Phones) und die zunehmende Bandbreite im Mobilfunk machen die Übertragung und Darstellung von Videos auf Handys problemlos möglich. Der Formfaktor der mobilen Endgeräte erfordert dabei ein kleines Videoformat. Aber ein Großteil der digitalen Videos wird nach wie vor für ein großes Ausgabeformat gedreht, zum Beispiel für den PC-Bildschirm oder ein für ein HD-Fernsehgerät. Wie also kann man im Nachhinein aus großformatigen Videos kleinformatige erzeugen?
Wir stellen im Vortrag zunächst die nahe liegenden Techniken Scaling und Cropping kurz vor und argumentieren, dass diese in der Regel zu unbefriedigenden Resultaten führen. Ein neuerer Algorithmus ist das Seam Carving, bei dem man senkrechte und waagrechte Trajektorien minimaler Energie durch das Bild bestimmt und diese einzeln entfernt. Dabei bleiben die vom Betrachter als wichtig angesehenen Teile des Bildes in der Regel erhalten. Wir erklären zunächst das Seam Carving für Standbilder und erweitern den Algorithmus dann für Videos. Abschließend gehen wir näher auf eine Optimierung ein, die gerade Linien durch ein Bild beim Seam Carving besser erhält als der Standard-Algorithmus.
Kurz-Bio: Wolfgang Effelsberg erhielt 1976 das Diplom in Elektrotechnik an der Technischen Universtität Darmstadt und promovierte dort 1981 im Fach Informatik. Von 1981-1984 arbeitete er als Assistant Professor an der University of Arizona in Tucson und als Post-Doctoral Fellow bei IBM Research in San Jose, Kalifornien. Von 1984 bis 1989 war er am Europäischen Zentrum für Netzwerkforschung der IBM in Heidelberg tätig. 1989 nahm er einem Ruf an die Universität Mannheim an, wo er seither die Arbeitsgebeite Rechnernetze, Multimediatechnik und E-Learning in Forschung und Lehre vertritt.