Dies ist eine Liste von Artikeln zu Algorithmen in der deutschsprachigen Wikipedia. Siehe auch unter Datenstruktur für eine Liste von Datenstrukturen. Platzkomplexität Linear platzbeschränkter Algorithmus Logarithmisch platzbeschränkter Algorithmus Polynomial platzbeschränkter Algorithmus Exponentiell platzbeschränkter Algorithmus Zeitkomplexität Linear zeitbeschränkter Algorithmus Logarithmisch zeitbeschränkter Algorithmus Polynomial zeitbeschränkter Algorithmus Exponentiell zeitbeschränkter Algorithmus Deterministischer Algorithmus Nicht-deterministischer Algorithmus Quantenmechanischer Algorithmus Randomisierter Algorithmus Las-Vegas-Algorithmus Monte-Carlo-Algorithmus Latin-Hypercube-Algorithmus Entscheidungsalgorithmus Optimierungsalgorithmus Approximationsalgorithmus Dynamischer Algorithmus Evolutionärer Algorithmus Greedy-Algorithmus Probabilistischer Algorithmus Rasterung Rasterung von Linien Rasterung von Polygonen Rasterung von Kreisen Bresenham-Algorithmus ...
1 Parallele Algorithmen Grundlagen Parallele Algorithmen Grundlagen Wir unterscheiden folgende drei Schritte im Design paralleler Algorithmen: Dekomposition eines Problems in unabhängige Teilaufgaben.
Although this may seem a paradox, all exact science is dominated by the idea of approximation. Bertrand Russell (1872-1970) Most natural optimization problems, including those arising in important application areas, are NP-hard. Therefore, under the widely believed con jecture that P -=/= NP, their exact solution is prohibitively time consuming. Charting the landscape of approximability of these problems, via polynomial time algorithms, therefore becomes a compelling subject of scientific inquiry in computer science and mathematics. This book presents the theory of ap proximation algorithms as it stands today. It is reasonable to expect the picture to change with time. This book is divided into three parts. In Part I we cover combinato rial algorithms for a number of important problems, using a wide variety of algorithm design techniques. The latter may give Part I a non-cohesive appearance. However, this is to be expected - nature is very rich, and we cannot expect a few tricks to help solve the
Lernende Vektorquantisierung, englisch learning vector quantization (kurz: LVQ), ist ein Verfahren aus dem Bereich der künstlichen neuronalen Netze. Es dient der Klassifikation von nichtlinearen Problemen. VQ = Vektorquantisierung: Verfahren zum unüberwachten Clustering LVQ = Lernende VQ Klassifikation: Abbildung in K Klassen Trainingmenge P P = {(xi,yi) in R n {\displaystyle R^{n}} x{1..K},i} LVQ-Netz: gegeben durch Prototypen (w1,Y1)…(wk,Yk) in R n {\displaystyle R^{n}} {1..K} definiert Abbildung x → Yi mit ,x-wi, minimal, also Gewinner nach WTA (Winner Take All) LVQ1: Es werden für die Klassen 1 bis k ein oder mehrere Neuronen erzeugt und deren Gewichtsvektoren zufällig, mit zufälligen Pattern der jeweiligen Klasse, durch die Schwerpunkte der jeweiligen Klasse oder anders sinnvoll initialisiert. Dann werden genau wie bei Vektorquantisierung die Muster präsentiert und je ein Gewinnerneuron mit kleinstem euklidischem Abstand zur Eingabe berechnet. Dabei ist die Lernrate η ∈ ...
Parallel Algorithms for Irregularly Structured Problems - Parallel Algorithms for Irregularly Structured ProblemsJose Rolim & Afonso Ferreira (editors) This book presents the proceedings of the Second
Spider mich Seo Counter Service Pagerank Suchmaschinenoptimierung Ranking Pagerank Service Counterservice Webmastertools Marketing Page besseres Ranking Linkpopularitaet Pagerank verbessern starker Pagerank Homepage Webseite Werbung Promotion Pagerank Button Pagerank ohne Toolbar kostenlos mehr Besucher Pagerank Portal Counter Service Backlink Pagerank erhoehen Pagerank verbessern Textlink Counter Service | aktuelle Charts auf Spider-mich.com 81 - 90
Ant Colony Optimization - Ameisenkolonie-Optimierung - Informatik / Wirtschaftsinformatik - Seminararbeit 2008 - ebook 8,99 € - GRIN
In the project EXASTEEL algorithms and software are developed for the computational simulation of advanced high strength steels, incorporating phase transformation phenomena at the microscale. The target platform are future supercomputers at the exascale. To accomplish this goal, new ultra-scalable, robust algorithms and solvers are developed and incorporated into a new application software for the simulation of this three dimensional multiscale material science problem. A direct multiscale approach (FE^2) is combined with new, highly efficient, nonlinear parallel solver algorithms. For the latter algorithms, a hybrid algorithmic approach is be taken, combining nonoverlapping parallel domain decomposition (FETI) methods with efficient, parallel multigrid preconditioners ...
Extended Kalman Filter Beispiel % Quelle: ,http://www.mathworks.com/matlabcentral/fileexchange/18189-learning-the-extended-kalman-filter, % clear all; close all; clc; n=5; %number of states q=0.001; %std of process r=0.01; %std of measurement Q=q^2*eye(n); % covariance of process R=r^2; % covariance of measurement T=0.02; % Timestep %% Fahrzeugmodell CTRV % Constant Turn Rate and Velocity % % $$ x= \left [ \matrix{ x\cr % y\cr % \phi\cr % v\cr % \omega}\right]$$ % % Dieses Modell wird aus der Drehung des Fahrzeugs auf einem Kreisbogen % auf Grundlage der physikalischen Randbedingungen erzeugt. Hilfe: Drehung % über komplexe Zahlen herleiten! % % Mehr dazu: ,http://www.qucosa.de/fileadmin/data/qucosa/documents/5874/data/Diplomarbeit.pdf, % [email protected](x)[(x(4)/x(5))*sin(x(5)*T+x(3)) - (x(4)/x(5))*sin(x(3))+x(1);... -(x(4)/x(5))*cos(x(5)*T+x(3)) + (x(4)/x(5))*cos(x(3))+x(2);... x(5)*T+x(3);... x(4);... x(5)]; % nonlinear state equations %% Measurement % Üblich im Fahrzeug: Geschwindigkeit und Gierrate ...
Extended Kalman Filter Beispiel % Quelle: ,http://www.mathworks.com/matlabcentral/fileexchange/18189-learning-the-extended-kalman-filter, % clear all; close all; clc; n=5; %number of states q=0.001; %std of process r=0.01; %std of measurement Q=q^2*eye(n); % covariance of process R=r^2; % covariance of measurement T=0.02; % Timestep %% Fahrzeugmodell CTRV % Constant Turn Rate and Velocity % % $$ x= \left [ \matrix{ x\cr % y\cr % \phi\cr % v\cr % \omega}\right]$$ % % Dieses Modell wird aus der Drehung des Fahrzeugs auf einem Kreisbogen % auf Grundlage der physikalischen Randbedingungen erzeugt. Hilfe: Drehung % über komplexe Zahlen herleiten! % % Mehr dazu: ,http://www.qucosa.de/fileadmin/data/qucosa/documents/5874/data/Diplomarbeit.pdf, % [email protected](x)[(x(4)/x(5))*sin(x(5)*T+x(3)) - (x(4)/x(5))*sin(x(3))+x(1);... -(x(4)/x(5))*cos(x(5)*T+x(3)) + (x(4)/x(5))*cos(x(3))+x(2);... x(5)*T+x(3);... x(4);... x(5)]; % nonlinear state equations %% Measurement % Üblich im Fahrzeug: Geschwindigkeit und Gierrate ...
Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen werden oft für die exakte oder approximative Lösung von Optimierungsproblemen verwendet. Typischerweise konstruiert ein Greedy-Algorithmus eine
Computer Science has changed the world and will continue to change it. ALGORITHMS are at the core of every computer system. Kurt Mehlhorn is Europes Mr Algorithm. His work has shaped computer science.. He has made fundamental contributions to algorithm science; data structures, computational geometry and algebra, parallel computing, VLSI design, complexity theory, combinatorial optimization and graph algorithms. His breadth is unrivalled. Algorithms, or, more precisely, implementation of algorithms in the form of programs are at the core of every computer system. Programs have to be efficient and correct (accuracy and speed of completion). These two aspects are traditionally addressed by different communities within computer science. Mehlhorn brought the two together through his pioneering work with Stefan Näher in the LEDA (Library of implementations of Efficient Data structures and Algorithms) project (since 1989). LEDA spawned a revolutionary development and many subsequent libraries such ...
We develop an evolutionary algorithm to estimate Threshold Vector Error Correction models (TVECM) with more than two cointegrated variables. Since disregarding a threshold in cointegration models renders standard approaches to the estimation of the cointegration vectors inefficient, TVECM necessitate a simultaneous estimation of the cointegration vector(s) and the threshold. As far as two cointegrated variables are considered, this is commonly achieved by a grid search. However, grid search quickly becomes computationally unfeasible if more than two variables are cointegrated. Therefore, the likelihood function has to be maximized using heuristic approaches. Depending on the precise problem structure the evolutionary approach developed in the present paper for this purpose saves 90 to 99 per cent of the computation time of a grid search.
Veröffentlichungen der Universität (migriert). Multi-objective evolutionary algorithms : data structures, convergence, and diversity / Sanaz Mostaghim. 2005
jeweils einer der Vektoren in einer Zielfunktion besser ist als der andere. Es ist demnach bestenfalls möglich, eine Menge von nicht dominierten Vektoren zu finden. Diese Menge wird auch Paretofront genannt. Eine Lösung, deren Wertevektor nicht dominiert wird, heißt effizient; als Paretomenge wird die Menge der effizienten Lösungen bezeichnet. In der Regel ist das Ziel, alle oder eine repräsentative Teilmenge der effizienten Lösungen zu finden und dem Benutzer zu präsentieren, damit er auf der Grundlage dieser Daten eine Entscheidung fällen kann. Die nebenstehende Abbildung zeigt exemplarisch das Bild einer zweidimensionalen Zielfunktion, wobei die Paretofront hervorgehoben ist. Für die genannten Probleme existieren bereits einige Algorithmen, die die Menge der effizienten Lösungen vollständig aufzählen können - wenn man sich auf zwei Kriterien einschränkt. In beliebig vielen Kriterien gibt es für das Kürzeste-Wege-Problem ebenfalls eine Hand voll Algorithmen, wohingegen man für ...
Sie sollten vertraut sein mit grundlegenden Techniken der Analyse von Algorithmen, den Algorithmenparadigmen Teile und Herrsche, gierige Algorithmen und dynamisches Programmieren, sowie balancierten Suchbäumen. Diese werden in der Regel in Büchern zu Algorithmen und Datenstrukturen beschrieben, wie zum Beispiel dem Buch von Cormen, Leiserson, Rivest und Stein. ...
Sequenzen sind allgegenwärtig. Texte und Programme, Gene und Proteine, Sprach- und Bildsignale werden dargestellt als Zeichenfolgen über einem endlichen Alphabet. Entsprechend vielfältig sind die algorithmischen Fragestellungen. Oft ist dabei der Datenumfang sehr groß, so dass die Komplexität der zur Problemlösung verwendeten Algorithmen von entscheidender praktischer Bedeutung ist. In der Vorlesung werden Algorithmen zum effizienten Vergleich von Sequenzen und zur Suche exakter und approximativer Muster in Sequenzen behandelt. Viele dieser Algorithmen sind durch biologische Fragestellungen motiviert. Sie finden jedoch auch Anwendungen in anderen Bereichen wie z.B. der Textverarbeitung.. ...
Finden Sie alle Bücher von Dienst, Michael - Synthetische Muster für lokale Suchalgorithmen. Bei der Büchersuchmaschine eurobuch.com können Sie antiquarische und Neubücher VERGLEICHEN UND SOFORT zum Bestpreis bestellen. 3640496337
Die Entwickler analysierten IDEA, um seine Stärke gegen die differentielle Kryptoanalyse zu messen, und kamen zu dem Schluss, dass der Algorithmus unter bestimmten Umständen gegen diese Art von Angriffen immun ist. Es wurden weiter keine linearen oder algebraischen Schwächen entdeckt. Der beste Angriff auf IDEA ist ein Klartextangriff und stammt aus dem Jahr 2011. Dieser bricht den Algorithmus, wenn er auf 6 Runden reduziert wird, und benötigt 16 Klartextblöcke und weniger als 2112 Operationen.[3] Bruce Schneier hatte im Jahr 1996 eine hohe Meinung von IDEA und schrieb in seinem Buch Angewandte Kryptographie: „Meiner Ansicht nach ist IDEA der beste und sicherste Blockalgorithmus, der zur Zeit öffentlich verfügbar ist." Im Jahr 1999 empfahl er den Algorithmus jedoch aufgrund von Kryptoanalyse-Fortschritten und der Probleme mit Softwarepatenten nicht mehr. Der einfache Key Schedule macht IDEA mit einer Klasse von schwachen Schlüsseln angreifbar. Schlüssel, welche eine große Anzahl an ...
... hat sich in jüngster Zeit als eigenständiges Teilgebiet der Algorithmik etabliert. Die klassische Algorithmik konzentriert sich hauptsächlich auf theoretische Analysen unter oft stark vereinfachenden, unrealistischen Voraussetzungen. Im Algorithm Engineering versucht man dagegen praxisrelevante Aspekte soweit wie möglich bei dem Entwurf, der Implementierung und der Analyse von Algorithmen zu berücksichtigen. Im Mittelpunkt steht dabei ein von falsifizierbaren Hypothesen getriebener Kreislauf aus Entwurf, Analyse, Implementierung, und experimenteller Bewertung von praktikablen Algorithmen. Realistische Modelle, für Maschinen und Anwendungen, sowie Algorithmenbibliotheken und Sammlungen realer Eingabeinstanzen erlauben eine zusätzliche Kopplung an Anwendungen. ...
Die so genannte Digitale Transformation ist allgegenwärtig und unumkehrbar. Sie betrifft alle Bevölkerungsschichten und Lebensbereiche. Der zentrale Begriff "Algorithmus" wird dabei in letzter Zeit oftmals reduziert auf eine negative konnotierte Interaktion zwischen Mensch und Maschine. Eigentlich ist ein Algorithmus aber etwas neutrales, eine Berechnungsvorschrift wie sie Menschen seit vielen Jahrhunderten anwenden.. Zur Förderung des Dialogs zwischen den Algorithmen-Schaffenden - oftmals Informatikern - und Anwendern schuf das German Chapter of the ACM anlässlich seines 50-jährigen Bestehens unter Federführung von Marc-Oliver Pahl und Gerhard Schimpf das Forum Mensch-Sein mit Algorithmen (https://being-human-with-algorithms.org/). Neben Fachartikeln kommen dort vor allem Menschen mit ihrer persönlichen Sicht auf die Digitale Transformation zur Sprache.. Kulminationspunkt der Aktivitäten war das gleichnamige Symposium in Heidelberg am 20. und 21.9.2018 an dem unter vielen Anderen die ...
Kompetenzen:. Die Vorlesung Big Data Analytics entwickelt Kompetenzen bei der Durchführung von Data-Mining-Aufgaben bei sehr großen Datenmengen, die nicht im Hauptspeicher gespeichert werden können. Die Vorlesung liefert die Schlüsselideen der Ähnlichkeitssuche unter Verwendung von Minhashing und lokalitätssensitivem Hashing, der Verarbeitung von Datenströmen, bei denen Daten so schnell ankommen, dass sie sofort verarbeitet werden müssen oder sonst verloren gehen, von Web-bezogenen Algorithmen wie dem Google PageRank, von Algorithmen um häufige Itemsets, Assoziationsregeln und häufige Teilgraphen zu finden, Algorithmen zur Analyse der Struktur von großen Graphen, wie z. B. von sozialen Netzwerkgraphen, und des MapReduce-Prinzips, um parallele Algorithmen zu entwerfen.. The lecture Big Data Analytics develops competencies in performing data mining tasks on very large amounts of data that cannot be stored in main memory. The lecture provides the key ideas of similarity search using ...
kartesisches Koordinatensystem einfach erklärt ✓ Viele -Themen ✓ Üben für kartesisches Koordinatensystem mit Lernvideos, interaktiven Übungen & Lösungen.
Vorgehen bei Optimierungsproblemen Fitness-Funktion festlegen Startlösung / Greedy Optimierung bzw. Mutation (Mutation ist immer eine kleine Änderung) ‏
Sie sind hier: Algorithms and complexity results for submodular function maximization, traveling salesman and other graph design problems. ...
Kombinatorische Optimierungsprobleme Definition Kombinatorisches Optimierungsproblem Gegeben sind: endliche Menge E (Grundmenge) Teilmenge I der Potenzmenge 2E von E (zul. Mengen) Kostenfunktion c: EK
Liutbert Re: Analyzing Evolutionary Algorithms Wahlen Sie einfach und klicken Sie auf die Schaltflache zum herunterladen und ausfullen ein Angebot zu starten, downloaden Sie das eBook. Wenn es eine Untersuchung dauert nur funf Minuten, versuchen Sie jede Untersuchung die fur Sie arbeitet.. ...
Liutbert Re: Analyzing Evolutionary Algorithms Wahlen Sie einfach und klicken Sie auf die Schaltflache zum herunterladen und ausfullen ein Angebot zu starten, downloaden Sie das eBook. Wenn es eine Untersuchung dauert nur funf Minuten, versuchen Sie jede Untersuchung die fur Sie arbeitet.. ...
Evolutionäre Algorithmen sind ein Teilgebiet des Soft Computing und beruhen als naturanaloge Heuristiken auf einer groben Abstraktion von Mechanismen der natürlichen Evolution. Bevorzugtes Anwendungsgebiet sind Optimierungsfragestellungen, die einer konventionell-analytischen Modellierung nicht zugänglich sind.
Diese Vorlesung wird mit einer Reihe von konkreten Algorithmen, Prinzipien fuer den Algorithmenentwurf und deren Komplexitaetsanalyse vertraut machen. Themen die behandelt werden sind z.B. Asymptotische Notationen, Rekursionsgleichungen, Sortier- und Selektionsalgorithmen, Hashmethoden, Algorithmen auf Graphen, Dynamisches Programmieren, Greedy-Methoden, algebraische und zahlentheoretische Algorithmen.. ...
Dieser Text beruht auf einer wahren Begebenheit und prangert die Risiken an, die von Algorithmen getroffene Entscheidungen mit sich bringen. Algorithmen sind logisch miteinander verkettete, eindeutige Routinen, die von Software, Automaten und sogenannten Systemen künstlicher Intelligenz gebildet werden; letztere sind unterteilt in Maschine Learning, Deep Learning und andere. Algorithmen agieren fast nie alleine.
Überblick und Ausschnitte (Buch: Evolutionäre Algorithmen - Verfahren, Operatoren, Hinweise aus der Praxis, Hartmut Pohlheim, Springer-Verlag)
Worum geht es?. Anfang Juni legten die SPD-geführten Ministerien - BMWi, BMAS und BMJV - ein gemeinsames Positionspapier zur Digitalpolitik vor. In diesem wurde erstmals die Überprüfbarkeit von Algorithmen hinsichtlich ihrer Einhaltung des Diskriminierungsverbots und lauterkeitsrechtlicher Vorgaben durch eine Kontrollinstanz gefordert. Der Fokus liegt dabei auf Algorithmen, die Prognosen über menschliches Verhalten treffen und Entscheidungen beeinflussen oder vorbereiten.. Was ist die neuste Entwicklung?. Auf einer BMJV-Konferenz konkretisierte Bundesjustizminister Heiko Maas gestern den Vorschlag und forderte ein „digitales AGG, ein digitales Antidiskriminierungsgesetz […] - gegen digitale Diskriminierung und für vorurteilsfreies Programmieren". Die Aufgabe behördlichen Kontrolle könne dabei eine neu zu gründende Digitalagentur übernehmen.. Weiterhin sprach Maas von der Schaffung eines Transparenzgebots für Algorithmen. Dieses soll Nutzer ermächtigen, verlässlich einschätzen zu ...
Gegenstand dieses Forschungsvorhabens ist die eingehende Untersuchung von grundlegenden Netzwerkproblemen mit Methoden des Algorithm Engineerings. Ziel ist die Verringerung der bestehenden großen Kluft zwischen den in der Algorithmik entwickelten Forschungsergebnissen und den in der Praxis eingesetzten Lösungen. Für ausgewählte Netzwerkprobleme werden bestehende Algorithmen experimentell analysiert und ggf. so modifiziert werden, dass sie für einen praktischen Einsatz interessant sind. Ferner werden neue Algorithmen und Analysekonzepte entwickelt werden. Dabei werden die theoretischen, konzeptionellen und experimentellen Studien in einem Wechselkreis ineinander greifen. In der ersten Projektperiode werden wir an den folgenden Problemen arbeiten: (1) Speicherverwaltung in Netzwerk-Switches, (2) Suche in Web-Verzeichnissen und (3) Web-Caching ...
Autor: Brandenburg, Franz J. et al.; Genre: Konferenzbeitrag; Im Druck veröffentlicht: 1997; Titel: SPP 731 : Algorithmen zum automatischen Zeichnen von Graphen im Rahmen des DFG-Schwerpunkts "Effiziente Algorithmen für diskrete Probleme und ihre Anwendungen"
Auswählen eines optimalen Algorithmus, indem die Qualität des resultierenden Ergebnisses beurteilen wird. Die existierenden Arbeiten im Bereich der Algorithmenauswahl basieren auf der Annahme, dass das Problem bereits bekannt ist und alle Algorithmen, unter denen ein optimales ausgewählt wird, in der Lage sind, die jeweilige Aufgabe zu lösen. Diese Annahme macht bestehende Ansätze zur Algorithmenauswahl in der Realität unbrauchbar.[/p] Zunächst muss entschieden werden, welche Klasse von Algorithmen anwendbar ist und dann manuell unpassende zu filtern. Entsprechend versucht dieses Projekt, diesen Schritt zu automatisieren. Ein weiteres wichtiges Problem ist die Größe des Suchraumes, d. h. das ähnliche Probleme mit verschiedenen Algorithmen gelöst werden können, wobei jeder Algorithmus zusätzlich verschiedene Hyperparameterkonfigurationen haben kann. Die experimentelle Bewertung eines solchen Suchraumes ist sehr zeit- und ressourcenintensiv. Daher sind Ansätze gefragt, die mit ...
Zweitmitgliedschaft an der Fakultät IV Herrn Skutellas Fachgebiet ist interdisziplinär an der Schnittstelle zwischen Algorithmischer Diskreter Mathematik und Theoretischer Informatik aufgestellt. In seiner Forschung beschäftigt er sich hauptsächlich mit der Theorie der Kombinatorischen Optimierung und Effizienten Algorithmen. Insbesondere studiert er Optimierungsprobleme auf Graphen und Netzwerken aus algorithmischer und komplexitätstheoretischer Sicht und entwickelt hier beispielsweise effiziente Approximationsalgorithmen für NP-schwere Probleme. Vorstandsmitglied. ...
Abstract. We analyze a-posteriori error estimation and adaptive refinement algorithms for stochastic Galerkin Finite Element methods for countably-parametric elliptic boundary value problems. A residual error estimator which separates the effects of gpc-Galerkin discretization in parameter space and of the Finite Element discretization in physical space in energy norm is established. It is proved that the adaptive algorithm converges, and to this end we establish a contraction property satisfied by its iterates. It is shown that the sequences of triangulations which are produced by the algorithm in the FE discretization of the active gpc coefficients are asymptotically optimal. Numerical experiments illustrate the theoretical results.. ...
Vierzig Jahre hat es gedauert von der ersten nichtstaatlichen Digitaluhr bis zur ersten staatlichen Digitalagentur. Der Fortschritt ist eine Schnecke. Wer vor vierzig Jahren von einem „Antidiskriminierungsgesetz für Algorithmen gegen digitale Diskriminierung und für vorurteilsfreies Programmieren" geredet hätte, wäre in der Klapse gelandet und nicht im Bundestag. Das ist die Schattenseite des Digitalzeitalters: Die Maschinen werden immer schlauer, das Volk immer dümmer und die Politiker immer dreister. Worum geht es genau?. Algorithmen sind das Resultat selbstlernender Programme, die individuelle Nutzerpräferenzen ermitteln und für den User sozusagen „maßgeschneiderte Internetangebote" generieren. Wer im Internet öfter nach neuen Schuhen sucht, kann sich dank Algorithmus darauf verlassen, daß ihm in Sachen Schuhwerk vom Skistiefel bis zum Stiletto nichts mehr entgeht. Alles, was er außer Schuh-News noch im Internet liest, wird flankiert sein von Werbung für Schuhe. Mit den ...
Sie sind auf der Suche nach einem spannenden Thema für Ihre Abschlussarbeit und möchten gerne den Stand der Technik vorantreiben? Dann suchen wir genau Sie als Unterstützung für unser Team! In Kooperation mit Industriepartnern entwickelt fortiss eine neuartige Plattform für den Betrieb von Apps in Fahrzeugen. Ziel der Plattform ist es Endanwendern zu erlauben Fahrerassistenzsysteme, wie z.B. einen Notbremsassistenten, genauso leicht im Fahrzeug zu installieren, wie es heutzutage mit Apps auf dem Smartphone möglich ist. Eine besondere Herausforderung ist die Absicherung solcher Plattformen. Als eine Möglichkeit untersucht die fortiss hier die Verwendung von probabilistischen Ansätzen basierend auf genetischen Algorithmen. Im Rahmen Ihrer Abschlussarbeit würden Sie maßgeblich zum Ausbau dieses Absicherungsframeworks beitragen. Gemeinsam mit unserem internationalen Team würden Sie neue Konzepte zur Optimierung der Laufzeit unseres Frameworks erarbeiten und deren Wirksamkeit evaluieren. ...
Potsdam. Am Hasso-Plattner-Institut für Softwaresystemtechnik (HPI) an der Universität Potsdam hat Prof. Tobias Friedrich (34) die Leitung des neu geschaffenen Fachgebiets Algorithm Engineering übernommen. In Forschung und Lehre wird das zehnte Fachgebiet des HPI im Bereich des IT-Systems Engineering sich vor allem den theoretischen Grundlagen widmen. Beispielsweise geht es um die Frage, was ein Computer grundsätzlich leisten kann und was nicht. Der Informatikwissenschaftler, der in Hagen, Jena und Sheffield studiert und 2007 am Saarbrücker Max-Planck-Institut für Informatik promoviert hatte, war seit August 2012 Inhaber des Lehrstuhls für Theoretische Informatik I an der Universität Jena gewesen. Zuvor hatte Friedrich als Forscher in wissenschaftlichen Einrichtungen in Deutschland und den USA gearbeitet. „Die Menge der digital gespeicherten Informationen wächst schneller als die verfügbare Rechenleistung. Damit steigt der Bedarf an effizienten Algorithmen", erklärte Friedrich. Mit ...
Wenn es um die Erfüllung von Suchkriterien geht, dann kann sich der Matching-Prozentsatz aus der Summe der gegenseitigen Übereinstimmung der Suchkriterien ergeben. Erfüllt Person A 50 Prozent der Suchkriterien von Person B und umgekehrt Person B 30 Prozent der Kriterien von A, so könnte sich eine Prozentzahl von 50 + 30 = 80 Prozent ergeben. Etwas weniger optimistisch ist die Berechnung des Mittelwerts: (50 + 30) / 2 = 40 Prozent.. Viele Partnerbörsen verwenden anspruchsvollere Algorithmen als die eben genannten, wobei sie ihre (teuer erstellten) Such- und Bewertungskriterien häufig auch nicht öffentlich machen.. ...
Wie funktioniert eigentlich ein Algorithmus und was ist das? Was haben Daten(-haltung) und Design Thinking damit zu tun? Wie geben Antworten.
Wlan Indoor Positioning System. Verwendete Algorithmen. NNSS, k-NNSS, HMA, MLP. Nearest Neighbor in Signal Space, History Monitoring Algorithmus und MultilayerPerzeptron.
Die lokale Suche ist die nächste Herausforderung für Google und ein Wachstumsmarkt im Netz.. Eine Kooperation mit dem US-Telekomunternehmen BellSouth erhöht die Reichweite von Googles AdWords beträchtlich und eröffnet dem Unternehmen lokale Märkte, berichtet das Branchenportal AdAge.. BellSouth betreibt die Website RealPages.com, eine Online-Version der Gelben Seiten. BellSouth gehört auch gemeinsam mit SBC Communications die Website YellowPages.com. Der Deal mit BellSouth verschafft Google daher ein solides Standbein im jungen Online-Markt für lokale Suche.. via futurezone. ...
Die Machine Learning Systeme erstellen selbstständig Modelle. Auf Basis dieser Modelle erkennen sie dann Fehler oder Auffälligkeiten in den Prozessabläufen. Die eigenständigen Anpassungsleistungen der Algorithmen ermöglichen die Überwachung und Steuerung von dynamischen Prozessen. Die Reaktionsschnelligkeit der automatischen Systeme ermöglicht es, kleinere Prozessfehler zeitnah zu neutralisieren. Außerdem erzeugen und vermitteln diese Systeme gründliche Prognosen. Die Systeme eignen sich nicht nur zum kontinuierlichen Monitoring der Prozessqualität, sondern auch zur Fehlererkennung und Diagnose. Fehler, Ausfälle und Störungen von Maschinen können dadurch erkannt werden, bevor es zu Totalausfällen kommt. Wartungen und Reparaturen werden somit nicht erst nach der Katastrophe fällig, sondern es kann vergleichsweise kostengünstig Vorsorge getroffen werden. Die Überwachungs- und Kontrollalgorithmen sind äußerst flexibel gestaltet, da die Messdaten von ganz verschiedenen Systemen ...
Nächsten Donnerstag bin ich zu Gast in der „Medialounge um sechs" am ZKM in Karlsruhe. Wir diskutieren die Ethik der Algorithmen:. Algorithmen treffen immer mehr Entscheidungen, handeln selbsttätig und bestimmen die Gesellschaft, in der wir leben. Immer mehr wird auch deutlich, dass Algorithmen Diskriminierung bewirken können oder moralisch stark aufgeladene Konsequenzen haben. Deshalb gibt es immer mehr Forderungen nach transparenten, gerechten Algorithmen. Der Beitrag zeigt, welche Probleme Algorithmen haben können und welche Lösungsvorschläge es gibt. Dabei wird deutlich, dass es nicht genügt, die Algorithmen selbst zu betrachten. Auch der soziale, ökonomische und materielle Kontext, in dem Algorithmen angewendet werden, spielt eine wichtige Rolle.. ...
Verteilte kombinatorische Optimierungsprobleme zeichnen sich dadurch aus, dass die einem Problem zugrundeliegenden Entscheidungsvariablen von verteilten, autonomen Prozessen kontrolliert werden. Aufgrund von Abhängigkeiten (Constraints) zwischen den Variablenbelegungen müssen die Entscheidungen der Prozesse im Sinne einer zielführenden Optimierung mittels Informationsaustausch untereinander koordiniert werden. Diese Situation ist beispielsweise in der prädiktiven, fahrplanbasierten Einsatzplanung autonomer, dezentraler Energiewandlungsanlagen zu finden. Hier muss für jede beteiligte Anlage ein Fahrplan bestimmt werden, sodass der resultierende Einsatzplan der Anlagen einen zuvor vereinbarten Wirkleistungsverlauf produziert. In einem vollständig verteilten Koordinationsparadigma sucht somit jede Anlage in dem ihr eigenen, durch lokale Nebenbedingungen eingeschränkten Suchraum nach derjenigen Teillösung, welche unter Berücksichtigung aller anderen beteiligten Anlagen das globale ...
Ein planarer Graph ist ein Graph, der in der Ebene gezeichnet werden, ohne dass die Kanten sich kreuzen. Planare Graphen haben viele schöne Eigenschaften, die benutzt werden können um für zahlreiche Probleme besonders einfache, schnelle und schöne Algorithmen zu entwerfen. Oft können sogar Probleme, die auf allgemeinen Graphen (NP-)schwer sind auf planaren Graphen sehr effizient gelöst werden. Einige dieser Probleme und Algorithmen zu ihrer Lösung werden in dieser Vorlesung vorgestellt. ...
Um einen Einblick zu bekommen, was einen in dem 1. Semester an der FH erwartet, hier, als Veranschaulichung, die Übersicht aus unserem AP-Skript:. Teil A: Theoretische Grundlagen. 1 Algorithmen und Datenstrukturen. 1.1 Grundlegende Begriffe. 1.2 Darstellungsformen für Algorithmen. 2 Programmiersprachen. 2.1 Grundlegende Begriffe. 2.2 Klassifizierung von Programmiersprachen. 2.2.1 FORTRAN. 2.2.2 COBOL. 2.2.3 PASCAL. 2.2.4 PROLOG. 3 Verarbeitung von Programmiersprachen. 3.1 Die Phasen der Übersetzung. 3.2 Exkurs: Die Übersetzung einer Beispielanweisung. 4 Literatur zu Teil A. Teil B: Prozedurale Programmierung in der Sprache C. 1 Entwicklungsgeschichte und Charakteristika von C. 2 Erste Schritte in C. 2.1 Der Aufbau eines C-Programms. 2.2 Ein- und Ausgabe. 2.3 Kommentare. 3 Datentypen, Variablen und Konstanten in C. 3.1 Fundamentale Datentypen. 3.2 Variablen und Konstanten. 3.3 Automatische Typkonvertierung. 4 Ausdrücke und Operatoren in C. 4.1 Grundlegende Begriffe. 4.2 Arithmetische ...