Zum Inhalt springen

flashpixx

Mitglieder
  • Gesamte Inhalte

    8302
  • Benutzer seit

  • Letzter Besuch

Alle Inhalte von flashpixx

  1. Sorry, aber ich verstehe das Problem nicht. In der Routine in der CR aufgerufen wird, werden an den Report Parameter mitgegeben ggf auch die Datenbankverbindung, d.h. ich kann das ganz flexibel steuern. Der Prompt kommt nur, wenn ein Parameter nicht gesetzt wurde
  2. Natürlich, da müsste ich mich jetzt bezüglich AES einlesen, wie, was, wo und wie viele Daten er während der Ausführung hat. Denn je nachdem ob ich als Bsp zwei Vektoren per Schleife zu einem Skalar umrechne oder das via Pipelining oder vielleicht sogar in einer Operation machen kann, wäre ja dann durchaus extrem für die Messung. Das sehe ich nicht so, denn im ersten Posting stand: Laufzeit ist unabhängig vom konkreten System. Ich habe dazu gerade ein Paper von Intel (vom letzten Jahr), da wurde Amdahl bezüglich der Performance bei Hyperthreading benutzt. Da wäre ich vorsichtig, denn so wie ich jetzt beim Überfliegen der AES Befehlssätze gesehen habe, sind dieses ja "Funktionen" evtl müsste man dabei berücksichtigen, dass sie intern doch hardwareseitig parallelisieren. Gerade bei Summen- / Multiplikationsketten wird das definitiv gemacht. So würde ich das auch sehen, natürlich könnte man hier auch argumentieren, dass man diesen Unterschied beim Pipelining evtl als "vernachlässigbar klein" setzt, aber ohne da konkrete Infos zu haben, würde ich davon nicht ausgehen. Gibt es, gibt es bei den CPU Herstellern Tabellen zu, wenn man es sehr genau machen will (gerade im Embedded Bereich). Ansonsten schätze ich ab, a+b wäre O(1), wobei dann eben sum(a_i) = n*O(1) wäre. Das mit den Skalaren ist aber wirklich zu beachten, ganz klassisch beim Lösen eines LGS: Gauß-Algorithmus ist O(n^3), man bekommt zwar nicht aus dem n^3 raus, aber mit numerischen Verfahren kann man bis zu O(1/6 * n^3) kommen, was ja durchaus schon bemerkbar ist. Ich denke in Bezug auf den Thread wird genau das der Punkt sein, d.h. AES an sich wird von der Laufzeit fix sein, d.h. der Faktor wird sich durch den Befehlssatz verändern. AES benutzt einen symmetrischen Key, der letztendlich auf einem Pseudozufallsgenerator basiert Symmetric-key algorithm - Wikipedia, the free encyclopedia Sollte aber generell aus der Messung heraus genommen werden, gerade Verfahren wie z.B. Mersenne-Twister sind durchaus rechenintensiv. Ja Das ist klar. Die Frage ist nur, wenn man jetzt AES selbst in den genannten Varianten implementiert, dann wäre ja direkt die Frage sind diese beiden Codes nachher überhaupt gleich !? Denn nur weil sie das gleiche liefern, müssen sie nicht gleich sein (Stichwort Halteproblem) Außerdem halte ich AES zu implementieren für nicht trivial, so dass hier sicherlich ein "großer Ungenauigkeitsfaktor" hinzu kommt. Er benchmarket/d "seine" Implementierung auf "einem" System. Worst-case Szenario die AES Implementierung ohne neuen Befehlssatz läuft schneller als mit dem neuen Satz (weil evtl Übergaben / Rückgaben ändern muss). Ich denke nämlich nicht, dass es einfach mit dem Austausch von einzelnen Befehlen getan ist. Gerade den letzten Punkt sehe ich da durchaus, denn es ist a) nicht sichergestellt wie der Code aufgebaut ist (gerade einem Programmieranfänger unterlaufen da oft sehr viele Probleme, d.h. die Implementierung ist nicht repräsentativ) und welchen fachlichen Schluss kann ich aus den gemessen Daten ziehen!? Die Aussage "es läuft mit dem neuen Befehlssatz schneller" kann man so nicht ziehen, denn neben dem Befehlssatz muss sicher gestellt sein, dass die Codes "hinreichend identisch" sind. DIe zentralen Fragen, die ich stellen würde, wären: - Wie repräsentativ ist der Code z.B. zu gängigen Implementierungen - Wie kann sichergestellt werden, dass die Codes gleich sind - Wie kann sichergestellt werden, dass die gemessenen Daten korrekt sind Natürlich kann man abschließend Messdaten bereinigen, aber dann ist die Frage "wie" man das macht. Wenn die Bsc Arbeit heisst "schreibe einmal AES mit und einmal ohne neuen Befehlssatz", dann ist das kein Problem. Wenn es hier aber um einen Benchmark geht und daraus ein Ergebnis abzuleiten, da sehe ich doch wirklich große Probleme (wobei ich nicht zwingend etwas allgm. gültiges erwarten würde).
  3. Definiere "mathematische" Algorithmen? Wenn wir über QR, LU, Cholesky Zerlegung o.ä. reden, dann ja. Aber wenn ich simple arithmetische Operationen ausführe, dann sicherlich nicht. Bitte einmal die Gesetze (Formeln) lesen und überlegen, was die einzelnen Komponenten des Gesetzes bedeuten. Die Gesetze von Amdahl, Gustafson und auch von Little sind Gesetze letztendlich um eine Leistungsbeurteilung zu machen. Die Kernaussage in den Gesetzen kann hier angewendet werden. Ich habe aber jetzt ehrlich keine Lust meine ganze Literatur über diesen Themenkomplex hier aufzuführen, denn wenn man eine Leistungsbeurteilung von einem Algorithmus macht, dann sollte man diese Gesetze präsent haben und verstanden haben Das ist nicht ganz korrekt, denn wenn diese eine Instruktion bezüglich des Datenflusses eine andere Laufzeit hat, dann entscheidet letztendlich der Datenblock ob und wie es angewendet werden kann. Wenn z.B. ein Sprung nicht ausgeführt wird, weil durch den Datenfluss dieses eben nicht statt findet, dann können hier durchaus Unterschiede auftreten. Und wer verarbeitet den Interrupt, wenn man von dem theoretischen Fall ausgeht, dass kein Multitasking existiert. Der Interrupt kommt am System an und dann? Nein das ist falsch, denn wie oben gesagt kann sich dadurch der Datenfluss ändern Du weisst wie eine Laufzeitabschätzung (worst-case Abschätzung) per Induktion durchgeführt wird? Mit dem Einsatz eines anderen Befehls verändert sich der Algorithmus, somit sollte sich auch die Abschätzung ändern, zwar nicht die Funktionsklasse aber der Skalar der Abschätzung. Dieses wird z.B. bei der Cholesky versus LU Zerlegung ausgenutzt. Nein das ist falsch, rein formal hat er (Laufzeit + Delta_i)*2 als Reaktionszeit zwischen eingehendem Signal und Start des Programms. Und das Delta ist nicht bekannt. Wobei generell anzunehmen ist Delta_i != Delta_j http://de.wikipedia.org/wiki/AES_(Befehlssatzerweiterung) Der Befehlssatz führt letztendlich mehrere Instruktionen auf Hardwareebene aus, somit könnte man salopp sagen es sind Funktionen speziell für AES. AES initialisiert ebenso wie andere Algorithmen mit einer Heuristik, d.h. hier können Unterschiede auftreten, sofern man das nicht deaktiviert. Wie oben geschrieben ist dieses nicht korrekt, es fehlt die Reaktionszeit des Systems nach anliegen der Binären 1. Des weiteren wäre die lediglich zu messen, dass Programm a langsamer läuft als b, aber daraus lässt sich nicht der generelle Schluss ableiten, dass der neue AES Befehlssatz generell effizienter ist als der alte, denn hier wurde ein einzelnes explizites System betrachtet. Man kann aus einem Einzelfall nicht auf eine allgemeine Aussage schließen. Das wäre ungefähr das gleiche als würde ich sagen, dass Pi eine transzendente Zahl ist und alle anderen Zahlen sind somit auch transzendent. Letztendlich ist die Vorgehensweise hier fachlich nicht haltbar, da ein Einzelfall betrachtet wird (von der Art und Weise der Implementierung und ob diese fehlerfrei ist, sehe ich jetzt mal ab)
  4. Für mich ne Menge Buzzwords, die nichts aussagen. Du machst nen Update nach Vorgabe. Es sind keine Entscheidungen drin und auch keine wirtschaftlichen Komponenten. Es ist ein Update von Windwos Server 2003 nach 2008, das hier mit ner Menge an hübschen Wörtern versucht wurde aufzublasen. Sorry, fachlich extrem wenig.
  5. Das ist Grundvoraussetzung und zusätzlich sollten die Daten iid sein
  6. Wofür soll der externe Trigger sein !? Das ist doch sinnfrei. Ich kann doch auch die Messung starten, wenn das Programm startet oder bevor eine Funktion ausgeführt wird. Die Parallelisierung ist der Hinweis, dass hinter dem Benchmark entsprechende Gesetze liegen und diese sind hier sogar gleich, denn der CPU parallelisiert intern z.B. via Hyper-Threading D.h. wenn Du dieses nicht beachtest, kannst Du Deine Messung nicht interpretieren nicht zwingend, wenn der CPU parallelisiert, also klassisch ein Reduced Instruction Set Computer ist, können pro Takt auch mehr Befehle ausgeführt werden, z.B. weil sie auf zwei Cores verteilt werden. Was willst Du mit einem Debugger ( OllyDbg ) ? Prefetching ist eine Heuristik und diese wird heute immer angewendet. Sorry, aber Dir fehlen massiv fachliche Grundlagen.
  7. Effizienz != Laufzeit Amdahlsches Gesetz Gustafsons Gesetz Speedup Das schon mal ein völlig falscher Ansatz, denn Du vergisst z.B. das Prefetching des CPUs. Das geht nicht, außerdem warum soll es von außen getriggert werden? Weiterhin wenn ich dann z.B. die Eingabe auf 0 lege, wird nicht automatisch die Messung gestoppt. Siehe Abtasttheorem und das Programm muss auch auf die Signaländerung reagieren, d.h. bei so etwas while true { check Pin for { } } Wäre die Messung falsch, denn die Überprüfung ob das Signal anliegt müsste innerhalb der for Schleife sein, um es zu dedektieren. Aber setzt man nun diese Überprüfung in die for Schleife wird die Messung ungenau, weil bei jeder Iteration die Überprüfung statt findet Das was gemacht werden soll, ist fachlich Mist, denn weder der Aufbau dieser Messung der Laufzeit, noch der Einsatz von einem speziellen Befehlssatz führt zu einem aussagekräftigen Ergebnis. Ich empfehle zuerst einmal, dass Du Dir die grundlegende Theorie zur Leistungsbeurteilung von Computersystemen anschaust. Z.B. wenn ich die Daten des Algorithmus so anlegen, dass der CPU sinnvoll Prefetching einsetzen kann und dann erhalte ich natürlich eine bessere Performance, als wenn der CPU kein Prefetching machen kann. Dies ist aber zum Teil abhängig von den Eingabedaten und deren Organisation. Wenn es Dir darum geht die Laufzeit eines Algorithmus zu betrachten, dann mache einen ordentlichen Induktionsbeweis für die Laufzeit und berücksichtige den Unterschied der Befehlssätze. Dann musst Du das nicht mit irgendeiner komischen Methode das ganze messen. Wenn Du dann dieses Ergebnis praktisch überprüfen willst, dann mache ein ordentliches Benchmarking nach den genannten Gesetzen und nimm z.B. nicht die Zeit, sondern die Anzahl der Instruktionen zur Messung, wie ich es schon beschrieben hatte. Denn die Zeit ist nicht hinreichend genau genug und kann von CPU Reihe zu CPU Reihe variieren. Sorry, aber in diesem Ansatz sind einige richtig große fachliche Fehler drin
  8. X-Diff: An Effective Change Detection Algorithm for XML Documents Wikipedia Diff Ansonsten schließe ich mich den Vorrednern an, es ist Deine Arbeit und Du musst selbst eine Lösung erarbeiten. Vor allem, wenn Du schon jetzt zu Beginn Probleme hast, dann würde ich evtl überlegen ob Du nicht das Thema wechseln solltest
  9. Das passt nicht zusammen, File Transfer Protocol (FTP) ist ein Protokoll um Dateien zu übertragen. Auf eine Datenbank verbindet man im Normalfall mit einem passenden Treiber. Falls es um die Installation eines CMS geht, dann wird in der Konfigurationsdatei des CMS eben die Serveradresse, Datenbankname & Authentifizierungsdaten hinterlegt (diese Daten bekommst Du von Deinem Anbieter). Eine Datenbank wird nicht per FTP erstellt.
  10. Das sehe ich nicht ganz so, denn ich muss zuerst einmal ein gewisses Grundgerüst erklären. Sprich VPN ohne überhaupt einmal Kommunikation in Netzwerken zu kennen geht nicht. Das ganze dann anhand eines praktischen Beispiels aufbauen zu lassen und bei Problem durch Fragen stellen weiter zu kommen geht zwar schon, halt ich aber ab einem gewissen Punkt für nicht praktikabel, weil man nicht immer jemanden hat, den man Fragen kann. Ich würde zunächst Basiswissen vermitteln, d.h. wie funktioniert Kommunikation überhaupt. Einmal durch praktische Übungen wie z.B. wie man prüft ob ein Dienst erreichbar ist und funktioniert. Direkt dazu die Theorie vermitteln und gleichzeitig ein systematischen Vorgehen zu lehren. Einen Anfänger würde ich ggf nicht direkt damit alleine lassen, wenn aber das Basiswissen gegeben ist, dann denke ich kann ein Azubi sich damit auch befassen. Er muss halt eben nur genügend Zeit bekommen, eine konkrete Zielvorgabe erhalten und man sollte eben regelmäßig nachfragen, wie es läuft. Das will ich auch mal haben... Das was ich höre "mmh das würde ich auch gerne wissen, wie das geht". Ich denke wichtig ist, dass sicher die Grundlagen beherrscht werden, denn darauf kann man dann auch komplexe Sachen aufbauen. Aber Grundlagen bekommt man eben durch Übungen und Erklärungen (auch eben Theorie).
  11. Aufgrund dessen schließe ich, dass Du eine Bitsequenz bekommst. Man würde hier i. Allgm. das Nyquist-Shannon-Abtasttheorem verwenden, d.h. Du musst mehr als doppelt so häufig das Signal abtasten, als es real übertragen wird, damit Du zuverlässig einen Signalwechsel dedektieren kannst. Weiterhin würde man hier aber auch nicht z.b. mehrere binäre 1er übertragen sondern, man würde generell Signalflanke verwenden, d.h. den Übergang von 0 nach 1 (vice versa), um das Signal zu finden. Denn wenn Du mehrere 1er oder 0er überträgst und das sendende System nicht im identischen Takt schwingt wie das empfangende wirst Du niemals die korrekte Anzahl an Bits erfassen können. Da technische Systeme niemals absolut identisch schwingen, ist dies somit nicht möglich ( Schwingquarz ).
  12. Mir wäre nicht bekannt, dass man das Multitaskingsystem deaktivieren kann, denn es ist im Code des OS kompiliert und somit unumgänglich. Du kannst ein Echtzeitbetriebssystem wie QNX verwenden, aber selbst dann ist Deine Annahme falsch, denn Du wirst nie 100% Aufmerksamkeit für Deinen Code haben können, das ist real nicht möglich ( Echtzeit ). Echtzeit bedeutet, dass Dir für eine Instruktion eine maximale Zeitdauer der Bearbeitung nicht überschritten wird. Zusätzlich hast Du in jedem OS Systemprozesse, die laufen müssen, damit die Infrastruktur des OS überhaupt funktioniert, z.B. wenn Deine Daten an die Hardware des Rechners ankommen, würde Dein Programm, wenn es in Echtzeit liefe, gar nicht mitbekommen, denn die Hardware löst bei eingehenden Signalen einen Interrupt aus, der vom OS dedektiert wird, das dann die Daten holt und an eine definierte Schnittstelle liefert. Dein Programm setzt erst auf OS Seite an, wenn es also 100% CPU Leistung hätte, dann würdest Du gar nicht wissen, dass Daten ankommen, denn die OS Zugriffe würden nicht statt finden. Ich gehe davon aus, dass Du hier einen völlig falsche Vorstellung hast. Wenn Du Die worst-case Laufzeit Deines Algorithmus wissen willst, dann kann man diese berechnen Landau-Symbole wenn Du die reale Laufzeit im System haben willst, dann kann man z.B. die Anzahl der CPU Zyklen zwischen zwei Punkten im Programm messen und aufgrund dessen die Laufzeit bestimmen. Generell gilt aber, dass meist handgeschriebener Assemblercode oft schlechter läuft als compilierter Code einer Hochsprache, denn die heutigen Compiler erzeugen so optimierten Code, dass dieser in den meisten Fällen besser ist als handgeschriebener. Es ist ein Trugschluss zu glauben, dass man damit eine bessere Performance erreichen kann. Wenn Dein Code "zu langsam" läuft, dann ist es oft ein Problem des Algorithmus und nicht des Systems.
  13. Wie man Fragen richtig stellt: eine Anleitung wie man Fragen erfolgreich in Usenet, Mailing Listen und Webforen stellt. Die scheinst es immer noch nicht verstanden zu haben! Ich kann ich meinem Ubuntu und LinuxMint ohne Probleme JPG Dateienals CSS Bilder verwenden, die auch angezeigt werden.
  14. Das denke ich nicht, ich denke es wird an Deinem Code liegen und dass dieser eben nicht korrekt ist. Und außerdem warum soll die Darstellung einer Webseite bei Ubuntu Probleme machen !? Wenn dem so wäre, dann müssten sehr viele dieses Problem haben. Weiterhin wird eine Webseite nicht durch "Ubuntu" dargestellt, sondern durch einen Browser. Welchen Du verwendest sagst Du nicht. Weiterhin bringt es hier relativ wenig, wenn Du hier nur eine Ordnerstruktur angibst, Zusätzlich wäre eine HTML Datei mit nur einem Tag für div nicht gültig, somit ist Dein HTML schon mal falsch, außerdem sehe ich nicht, dass in Deinem HTML das CSS includiert wird. Ich empfehle, dass Du mal alle relevanten Dateien hoch lädst.
  15. C/C++ - #include C-Programmierung: Eigener Header Funktionsprototyp In die Headerdateien, die includiert werden, kommen die Deklarationen, in die c Dateien die Implementationen. Wie man das nun konkret strukturiert kommt auf das Projekt an. Generell darf der include nur einmal stattfinden, wobei man dies mit entsprechenden defines verhindern kann. Ich würde, wenn es nicht zwingend erforderlich ist, zu C++ gehen, C ist im Sprachumfang enthalten, wobei man aber bei C++ globale Strukturen vermeiden kann (Singelton Pattern). Durch die Bildung von Klassen und Namespaces können hier strukturell viel bessere Kapselungen erfolgen, als unter C.
  16. Apache HTTP Server Microsoft Internet Information Services nginx Lighttpd Was willst Du davon können? Um jeden von diesen Webservern in allen Details zu beherrschen kannst Du wohl einige Jahre Zeit investieren siehe oben Exim Sendmail http://de.wikipedia.org/wiki/Postfix_(Mail_Transfer_Agent) Microsoft Exchange Server weitere Mail Transfer Agent Was willst Du da können? Das kommt auf den Ausbildungsbetrieb an. Generell schadet es sicher nicht, wenn Du Linux kannst, wenn Dein Betrieb aber MS Systeme nutzt, dann wirst Du Dich in der Ausbildung nicht mit Linux beschäftigen. Um einen Server, der produktiv im Netz arbeitet, sicher administrieren zu können, dazu gehört Zeit, Übung und viel Fachwissen (passend dazu Dein neuer Linux-Server » d(a)emonkeeper's purgatory ). Als FISI solltest Du entsprechendes Wissen "nach" der Ausbildung haben, aber in allen Bereichen wirst Du es nicht haben. Du solltest die Fähigkeit haben nach der Ausbildung auf einem soliden Grundgerüst Dir neue Dinge anzueignen und aufgrund der Ausbildung fachlich bewerten zu können. Auch ein FISI muss programmieren können, damit er z.B. Dinge automatisieren kann z.B. Bashscripte, Powershell oder auch PHP / Perl bzw. CGI Programme einbinden kann. Auch Datenbanken gehören zu einem FISI z.B. Lightweight Directory Access Protocol wird für die Authentifizierung verwendet und auch ein AD hat ein LDAP Interface und ein LDAP ist letztendlich eine hierarchische Datenbank. Von einem FISI erwarte ich, dass er ein Verständnis für Netzwerktechnologien hat und wie Systeme über ein Netzwerk kommunizieren, also z.B. was ein Socket ist, was ein Port ist usw. Ob das nun Linux, BSD, OSX, Sun oder Microsoft ist an sich egal. Wenn der FISI sich dann z.B. auf eine Technologie wie z.B. Virtualisierung spezialisiert hat, dann ist das sinnvoll. Aber generell, wenn Du lernen willst wie ein Mailserver funktioniert, dann setz Dir einen auf, wo ist das Problem!? Installier' z.B. Linux mit Exim und Postfix, dazu dann gleich nen Authentifizierungsdienst, so dass der User nicht mit "fremden" Mailadressen senden kann, dann vielleicht noch nen Spamfilter, Greylisting und Mailsortierung, ggf. das ganze dann mit mehreren Domains, so dass ein Mailserver für mehrere Domains Mails empfangen kann. Als nächstes kannst Du Dir dann überlegen wie Du mit einem Mailclient die Mails abholen kannst und oben drauf machst Du Dir noch etwas Gedanken über die Sicherheit also z.B. Verschlüsselungen.
  17. Ich beschränke mich auf die fachlichen Teile: Das kann eine FISI Aufgabe sein, d.h. schau Dir an mit welchen Einstellungen der Tomcat läuft und ob diese zur Anwendung passen. Weiterhin kann das aber auch ein Problem der Programmierung sein, d.h. wenn der Garbage Collection nicht zeitnah aufräumt bzw. wenn Objekte noch referenziert sind. Man kann die Intervalle des GCs für den Tomcat in den Einstellungen verändern, was man aber mit Bedacht tun sollte. Generell musst Du hier wirklich eine systematische Fehleranalyse machen, d.h. erst einmal ausschließen, dass es ein Systemproblem des Servers ist und dann musst Du ggf. den Code der Anwendung analysieren ob dort zu viel Speicher allokiert wird, der dann nicht passend durch den GC frei gegeben wird. Letztendlich muss man das Problem sowohl von der FIAE wie der FISI Seite analysieren und dann eine Lösung erarbeiten. Ich würde mal darauf tippen, dass irgendwo Objekte noch referenziert sind, die aber nicht mehr verwendet werden, d.h. diese Fehlerquelle im Code bereinigen und dann ggf die GC Struktur anpassen. Es ist die Frage, was Du lernen willst, soll es nur für die Ausbildungsprüfung sein, dann wäre dazu passende Literatur empfehlenswert. Da ihr aber mit Java / Tomcat arbeitet, würde ich von der fachlichen Seite wohl dort einen Schwerpunkt legen, d.h. lerne die Basis von Java, d.h. programmieren und schaue Dir an, wie dieses dann real im Tomcat umgesetzt wird, damit Du ihn administrieren kannst
  18. Also zunächst, Du sollst in der Ausbildung etwas lernen, d.h. man wird nicht erwarten, dass Du schon etwas kannst. Lehrjahre sind keine Herrenjahre, wenn Du Dinge nicht verstehst, schadet es auch nicht, wenn Du Dich vielleicht einfach abends noch mal hinsetzt und etwas darüber liest. Letztendlich ist Eigeninitiative etwas positives. Ich habe durchaus mir immer die Mühe gemacht manches auch 2-3 Mal zu erklären, aber ich setze auch voraus, dass man selbst ständig lernt. Vieles lernt man auch dadurch, dass man es real macht, denn Übung macht den Meister
  19. Ich koche komplett selbst und nehme dann mit. Also entweder abends warm und mittags nur nen Brötchen oder eben für 2 Tage kochen und am anderen Tag mitnehmen. Ich gehe für ca 50 Euro / Woche einkaufen (inkl. Getränke), macht also 200 - 250 Euro im Monat (für insg. 2 Personen)
  20. nimm Chapter 7. Boost.Date_Time - Boost 1.50.0 und schau Dir an, wie das parsen von String funktioniert Examples - Boost 1.50.0
  21. Nein das ist falsch: = Zuweisung und == Vergleich Ja, aber sinnvoll so ist es nicht
  22. Du solltest Dir einmal Unixzeit anschauen, mit Hilfe des Timestamps lässt sich um ein vielfaches einfacher arbeiten, als mit Deiner Methode. Außerdem solltest Du Dir difftime - C++ Reference anschauen
  23. Sie sind abhängig von Query, wenn die Query z.B. einen Int in einen String konvertiert, wird natürlich im Resultset ein String als Typ angegeben. Zusätzlich ist natürlich die Interpretation von Datentypen unterschiedlich ein Clob kann z.B. als String interpretiert werden
  24. Aus einem Resultset kann man die Datentyp der Felder bestimmen: Types (Java 2 Platform SE v1.4.2) ResultSetMetaData (Java 2 Platform SE v1.4.2)) Es handelt sich dabei aber nicht um Javatypen, sondern um die SQL Typen.
  25. Wie soll das hier jemand beantworten können !? Dann solltest Du ihn vielleicht richtig berechnen. Warum benutzt Du keinen Debugger?

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...