Grundlegende Algorithmen in der Bildverarbeitung
-
Testumgebung war ein Computer.
-
Korbinian schrieb:
Hast du mal die Filterimplentierungen da? Mich würde die Testumgebung interessieren
ich glaub da wäre meine chefin nicht einverstanden.
zuerst werden die ränder erweitert (zero-padding, spiegeln, was auch immer). ein LUT wird angelegt um die zielgrauwerte zu berechnen. dann wird zuerste vertikal und dann horizontal gefiltert. beim filtern selbst, spare ich mir einige unnötige berechnungen. statt immer wieder neu die werte unter der filtermaske zu berechnen, aktualisiere ich lediglich die summe der grauwerte die aktuell unter der maske liegen, d.h. wenn die maske um einen pixel verschoben wird, kommt effektiv auch nur ein "neuer" pixel dazu und ein "alter" pixel verschwindet (1 addition und 1 subtraktion pro bildpunkt). den endgrauwert frage ich dann mit hilfe dieser summe und des LUT ab.
-
Sunday schrieb:
beim filtern selbst, spare ich mir einige unnötige berechnungen. statt immer wieder neu die werte unter der filtermaske zu berechnen, aktualisiere ich lediglich die summe der grauwerte die aktuell unter der maske liegen, d.h. wenn die maske um einen pixel verschoben wird, kommt effektiv auch nur ein "neuer" pixel dazu und ein "alter" pixel verschwindet (1 addition und 1 subtraktion pro bildpunkt). den endgrauwert frage ich dann mit hilfe dieser summe und des LUT ab.
Ah, deshalb ist das so schnell. Ich hatte mich schon geärgert, weil mein Gaussfilter hier ein ganzes Stück langsamer ist. Weißt du, ob so ein Trick auch mit nem Gaussfilter geht?
-
Wieso ist das bei nem Farbbild langsamer? Es müsste doch alles nur drei mal so lange dauern wie bei den Graubildern.
-
schrieb:
Wieso ist das bei nem Farbbild langsamer? Es müsste doch alles nur drei mal so lange dauern wie bei den Graubildern.
Naja, sein Bild ist so in etwa 1MB als Grauwertbild groß. Das passt vielleicht sogar in den Cache seiner CPU. Das Farbbild ist aber dreimal größer und das heißt, dass er häufiger auf den normalen Arbeitsspeicher zurücgreifen muss. Er wird vermutlich deutlich mehr als dreimal so viele Cache misses haben. Das könnte dazu führen, dass das mehr als dreimal so lange dauert. ...nur so ne Vermutung.
-
stimmt, das mit dem 1 sub und add ist ein guter trick. hast du bei den gaussfiltern mal die 2x 1d gegen meine 2d gebencht? weil das ist das eigentliche was mich interessiert
-
bin bisher leider noch nicht dazu gekommen das auch mit anderen filtern zu testen. aber den medianfilter kann man extrem verbessern. dort kann man ebenfalls eine aktualisierung der werte vornehmen (das gilt übrigens für alle rangordnungsfilter).
-
bei grössen daten ist es besser den median in dieser Art zu rechnen
damit commt man in logN zum Zieltemplate <typename T> struct divider { divider(const T&o):val(o){} bool operator()(const T&o) {return o<val;} T val; }; template <typename T,typename RandItr> RandItr median(RandItr begin, RandItr end)[cpp] { while(begin!=end) { divider<T> Pred((*(begin) + *(end-1))/2 ); RandItr pos=std::partition(begin,end,Pred); size_t distB=std::distance(begin,pos); size_t distE=std::distance(pos,end); if(distB==0) return begin; else if(distB<distE) begin=pos; else end=pos; } return begin; }
das hat sicher noch paar macken aber dafür is mir grad zu früh
-
Wie führt man das unter linux aus?
g++ dateiname.cpp -o dateiname
./dateinamefunktioniert nicht,
Ausserdem würde es mich interessieren, was für ein datei ich jetzt als erstes aus deinem projekt compilern soll ... da sind nämlich mehr als eine .cpp datei
-
@b7f7: keine schlechte idee beim median gleich beim einfügen zu sortieren, das spart sicher zeit!
@kenner: nuja was hast du denn alles runtergeladen? das von dir genannte prinzip sollte es eigentlich schon tun. bei dem beispielprojekt von mir war allerdings auch ein makefile dabei
-
das : http://www.korbinian-riedhammer.de/misc/ip-suite.tar.bz2
was kann man den mit dem makefile machen?
wie funktioniert das ... ich habe mir sowas nochnie gearbeitet
-
wenn du mehr über make wissen möchtest, empfehle ich dir ein make tutorial, leicht über google erhältlich (im linux forum hier gibts auch eins, glaub ich). generell kannst du mit einem schlichten 'make' alles bauen, die binaries findest du dann unter bin/ oder lib/ steht glaub ich auch in der readme drin.
-
make -f Makefile
= make das Makefile
bin/test-rotation sample.pgm out.pgm
= out.pgm is das bild was "raus kommt"
PS: natürlich musst du alles in die Konsole eingeben
-
@Korbinian: kannst du mal bitte ein vernünftiges makefile erstellen?
-
was passt dir an diesem nich?
-
der konventionen ignorierte passte einem nicht
konventionon = benennung das targets, allgemein zuviel text, kein "start"-target, ignore von CPPFLAGSKannst das auch alles vergessen
-
deine konventionen sind mir neu, ein start oder main mach ich nur, wenn es sich um ein programm handelt. das ist nur eine sammlung von klassen und funktionen, jemand der das benutzt sucht gezielt einzelne sachen. genauso die cppflags, drauf geschissen, ich will _meine_ compilierregeln für das projekt, nicht die standardmaessig eingestellten (auch hier wieder: es handelt sich nicht um ein auslieferbares programm/lib, sondern um ein spielzeug zum basteln).
aber es hindert dich niemand daran hier ein makefile reinzustellen. aber vielleicht schreibst du erst den datenbankartikel fertig...
-
kgilgig
zafiro schrieb:
make -f Makefile
= make das Makefile
bin/test-rotation sample.pgm out.pgm
= out.pgm is das bild was "raus kommt"
PS: natürlich musst du alles in die Konsole eingeben
hmmm, dann kommt "error reading pgm image" . Dabei ist sample.pgm im richtigen Verzeichnis ... An was könnte das liegen
-
Hallo ich habe hier mal reingeschaut und finde den Artikel super,
auch wenn ich nicht alles gelesen habe. Diese Grundlagen sind gut und wichtig, nett zusammengestellt.
Ich selbst interessiere mich für einen Algorithmus der mir Bilder verkleinert.Aufgabe:
Ich habe ein Bild mit n-Megapixel das in einem Control dargestellt wird z.B. mm Pixel.
Um die Performance zu steigern soll das Bild reduziert an das Control gesendet werden,
es muss doch reichen mm Daten zu übertragen plus den Infos die das Bildformat benötigt.Zusätzlich wäre es schön wenn die Koordinaten wieder hochgerechnet werden könnten wenn
z.B. im Control an Position x/y geklickt wurde entspricht dies ja im Originalbild anderen
Koordinaten.Gibt es da Algorithmen ?
Wie heißt der Fachbegriff nach dem ich suchen sollte ?
-
Skalierung von Rastergrafiken
http://turing.fh-landshut.de/~jamann/Skalierung von Rastergrafiken.pdf