Posts by chrisp

    Code
    1. for(var i=0, len=this.effects.length;i<len;i++)
    2. this.effects[i] && this.effects[i].loop(timePos);

    ist das einfach nur die kurzform für:


    Code
    1. for(var i=0, len=this.effects.length;i<len;i++) {
    2. if(this.effects[i] && this.effects[i].loop)
    3. this.effects[i].loop(timePos);
    4. }

    ?


    danke
    Chris

    Ich nehme an, mit "normalisieren" meinst du die Division durch die homogene Koordinate? Ja, die Koordinaten sind erst nachher im Bereich [-1, 1]. Wobei das kein voller Unit Cube ist, da Z nur von 0 bis 1 reicht und keine negativen Werte annimmt.


    du hast recht die division durch die homogene koordinate ist noch keine normalisierung. ich meinte damit aber die divison.
    warum sind dann in meinem beispiel die x,y koordinanten nicht 1,1 obwohl der projizierte punkt in der oberen rechten ecke des Frustum liegt?

    Also ich hab mich gefragt ob die Koordinaten eines Vektors nach der Mulitplikation mit der Projektionsmatrix schon im Unit Cube sind oder ob erst nach der der Normalisierung die Koordinatentransformation in den Unitcube abgeschlossen ist.


    Also hab ich das mal mit folgenden Werten ausprobiert:
    n = 10, f = 50, l = -10, r = 10, b = -5, t=5
    eyespace: P (10, 5,-50, 1)



    Code
    1. 1 0 0 0 10 10 0.2
    2. 0 2 0 0 * 5 = 10 normalize 0.2
    3. 0 0 -1.5 -25 -50 50 1
    4. 0 0 -1 0 1 50 1

    das ergebnis ist also nicht ndcP(1, 1, 1, 1) so wie ich mir das erwartet hätte... wo liegt der fehler?


    im anhang die OGL Projektionsmatrix

    nun in den folien auf seite 37 steht "how does opengl do that?" somit vermute ich mal dass die korrekte interpolation sowohl in opengl als auch in cg automatisch gemacht wird, auch die division mit 1/w bevor die werte in den fragment shader kommen. somit muss hier nur mehr die projektion der homogenen texturkoordinaten gemacht (division mit q) gemacht werden.



    trotzdem weiß ich noch nicht wann tex2d und tex2dproj einen schatten tiefen vergleich machen.


    schade dass hier nur keiner gewillt ist meine fragen zu beantworten..

    was genau macht den jetzt opengl in der fixed function oder cg in der progammable pipe für uns und was müssen wir selber machen? soweit ich weiß übernimmt OGL die perspektivisch korrekte interpolation von s,t koordinaten, wie siehts dann mit den homogenen s,t,r,q koordianten einer projizierten textur aus?
    im beispiel shader sehe ich auch keine division durch w auf vertex ebene und auf fragment ebene nur (folien 06shading seite 41):


    Input: float4 texCoordProj
    float4 textureColor = tex2Dproj(projectiveMap,texCoordProj);


    tex2Dproj dividiert den vektor durch die letzte koordinate also q, soweit so gut, falls die koordinaten bereits perspektivisch interpoliert wurden. aber im falle von nicht homogenen texturkoordinaten und einem normalen tex2d(sampler2D samp, float2 s) lookup müsste man ja s und t mit w mulitplizieren, was ich aber in meinem projekt nicht gemacht habe...



    dann fällt mir dann fällt mir auch noch auf, laut cg reference macht tex2Dproj(sampler2D samp, float4 s) einen shadowmap tiefenvergleich. liefert die funktion dann nicht in diesem fall nicht einen falschen wert zurück? oder erfolgt der schatten tiefenvergleich bei tex2Dproj(sampler2D samp, float4 s, int texelOff)? ist texelOff dann der bias wert um die selfshadowing artefakte zu verhindern?



    leider habe ich kein shadowmapping implementiert, kann mir bitte hier jemand ein bisschen licht ins dunkel bringen?

    also ich hab mal wieder nicht so viel über die ferien weiter gebracht bin aber jetzt heftig am lernen.


    eine der ersten fragen die ich mir bis jetzt selber nicht beantworten konnte zu glTexGen. hier ein zitat aus dem redbook:

    wenn glTexGen im GL_EYE_LINEAR modus arbeitet, warum wird die ebenen normale, die so glaube ich, in param mit eyespace koordinaten angegeben wird, mit der mit der inversen Modelview in den worldspace gedreht um dort dann mit den vertex eyespace koordinaten multipliziert zu werden?


    wenn ich wie im redbook beschrieben, die texturkoordinaten aus den abständen der model vertices von der ebene relativ zum eyespace berechnen will könnt ich mir doch die inverse modelview sparen, oder?

    Hi,


    Ich bin gerade dabei mich auf die Prüfung vorzubereiten. Es gibt leider ein paar Folien bei denen ich anstehe. Hat vielleicht jemand Zeit sich mit mir zusammen zu setzen oder Fragen per Skype zu beantworten?


    Danke
    Chris

    laut http://www.studieren.at/cgi-bi…y.cgi?ID=000008&GROUP=001


    Quote


    2. Studienzeit:
    Die Mindeststudiendauer darf pro Abschnitt nur um ein Semester überschritten werden (Ausnahmen bei Krankheit und Schwangerschaft). Überschreitet man dies im ersten Abschnitt (z.B. Mindeststudiendauer beträgt 4 Semester, man benötigt aber 6 dafür), ruht die Familienbeihilfe bis zum Beginn des nächsten Abschnittes. Wurde das Zusatzsemester in einem Abschnitt nicht genutzt (d.h. konnte man den 1. Abschnitt in Mindeststudiendauer beenden), hat man im nächsten Abschnitt zwei Toleranzsemester.


    stimmt das? und gilt das auch für den fall, dass man das bakk an der fh und den master an der uni macht?


    kann mir da vielleicht jemand von euch genaueres sagen oder muss ich auch mal zu öh latschen?

    ich hab mir das heute mal kurz angesehn, das höchste aller gefühle ist ein layer II export über den media encoder. laut der adobe homepage ist layerIII import only. das ist mir bis jetzt noch nie aufgefallen, da ich immer eine sd oder hd master rausrechne und das encoden sowieso wo anders mache. habe mich also geirrt, was den mp3 export betrifft. alternativ würde ich den windows media codec im media encoder empfehlen, der ist in der neuen version eh besser als mp3. wie die qualität des adobe mediaencoders ist weiß ich jedoch nicht.

    Bei Premiere funktioniert einiges nicht, was in Video Deluxe kein Problem darstellt. z.B. Es gibt keine S/W Filter, was den Film alt aussehen läßt,
    Komprimierung geht gar nicht sauber, bei divx gibts störende grobe Artefakte zu sehn. Beim Audio wird nicht einmal mp3 unterstützt...


    für sw mit noise und damage effekte gibts plugins oder du machst es per hand.


    encodieren ist eher ungut, aber dafür gibts eigene media encoder um den digitalen master in mehrere zielformate zu bringen. den schnitt per directlink in encore mastern und gleichzeitig nach mpg2 zu encodieren funktioniert jedoch ganz gut.


    mp3 geht wenn du den codec installiert hast...


    alles jedoch keine gründe warum man eigentlich in premiere arbeitet...


    vergleich hab ich nur zu avid, vegas kenn ich nicht und werde ich dank directlink warscheinlich auch nie kennen lernen.

    wenns wirklich kompakt sein soll würde ich auch die kleinen fujis empfehlen, die sind bekannt für ihre relativ guten high iso bilder. leider haben die wieder ein eigenes speicherkartenformat.


    wenns etwas größer sein kann würd ich dir eine mit schwenkdisplay empfehlen. das ist das feature meiner kleinen canon a620, was ich extrem an meiner dslr vermisse. für die gibts auch noch eine gehackte firmware, die so nette dinge wie raw, live histogramm und exposure bracketing ermöglicht. http://scratchpad.wikia.com/wiki/CHDK/FAQ

    Nunja, jedem seine Meinung... bin wie gesagt bisher sehr zufrieden damit. Hab' das Equipment vor allem durch Hilfe aus einem sehr guten fotoforum ausgewählt, wo denk ich sehr viele kompetente Leute mitwerkeln.


    nix... Freund von mir... eine Hand wäscht die andere ;-)


    soso im foto forum? und die wollten dir nicht gleich 5 L linsen andrehen? *g*


    nun dann. ich finde den getriebeneiger etwas unhandlich und wenn du nicht viel makro machst wirst du ihn auch nur selten benötigen. generell hätte ich dir zu einer benro stativ und kopf kombination geraten. vor allem die um beinahe 360 grad schwenkbare mittelsäule finde ich extrem klasse und die findet man sonst nur bei gitzo, so weit ich weiß. dazu noch der kleine kb-0 kugelkopf, hätte glaube ich auch für dich vollkommen gereicht.


    das 17-85 gefällt mir überhaupt nicht ... da würde ich mir eher das im sommer kommende 18-200 mit IS von sigma oder das tamron 28-250 ebenfalls mit IS kaufen, weil viel schlechter kann die bildqualität auch nicht mehr werden. im gegenteil ich hab mir mal, als ich noch keine kamera hatte, eine niegelnagel neue 350d mit dem sigma ohne IS geliehen und fands garnicht mal so schlecht fürs geld. hatte aber wohl auch ein gut zentriertes exemplar erwischt. der einzige kaufaspekt den das canon derzeit noch hat ist der IS aber sonst find ichs eher für die tonne. ohne derzeitigem cashback auch noch überteuert.


    das 70-300 ohne IS wirst du ziemlich oft verwackeln, das hab ich damals auch schon am 200er ende des sigmas erlebt. die bildqualität kann ich nicht beurteilen da ich keine fotos von dem non IS kenne, wobei man für die 200 euro sicher auch nicht viel erwarten kann. womit wir wieder bei der überlegung wären, obs nicht gleich auch ein superzoom getan hätte.



    bitte zeig mir mal ein foto von dem adapter. ich würde gern wissen, wie der dem ninja überlegen ist.



    wieviel shots brauchst du jetzt eigentlich für ein pano mit dem peleng? am cropsensor geht sich ja nicht der ganze bildkreis aus.



    vg


    nja ganz versteh ich deine equipment wahl nicht aber jeder macht mal jugendsünden drum kommentiere ich das jetzt nicht weiter ;)


    wenn du panos machst wunderts mich dass du nicht schon längst dich auch mit hdr beschäftigst... schaut ja meist nix gleich da du selten sowenig kontrast im der szene hast, dass es sich ohne eben zb überstrahlte fenster ausgeht.


    wieviel hat der adapter gekostet und kannst mal bitte ein foto davon reinstellen?


    welche fotokurse meinst du? ich bräucht auch noch ein freifach


    lg