Zum Inhalt springen

flashpixx

Mitglieder
  • Gesamte Inhalte

    8302
  • Benutzer seit

  • Letzter Besuch

Alle Inhalte von flashpixx

  1. flashpixx

    Umsetzungsproblem

    ich glaube Dir ist nicht klar, welche Komplexität das Problem hat
  2. das ist also ein Praktikantenprojekt "installiere CITRIX XenApp 6.5" und schraube vorher die Hardware zusammen?
  3. Warum bist Du denn billiger als eine fertige Lösung? Das ist sprichwörtlich nur einer Frage, was ich an Anforderungen habe und was Du dagegen lieferst bzw. kostest. D.h. bisher existiert gar nichts, noch nicht mal eine Batch-Datei, die ich als User aufrufe und einen fertigen Lizenzschlüssel bekomme, d.h. heißt ich muss 1,2,3 ... verschiedene Programme starten, bis ich nen Schlüssel habe !? Wenn dem so ist, warum machst Du dann ein Heftpflaster als Lösung. Du macht dann im Grunde nichts anderes als ein Webinterface mit ner Batchdatei ausführen, das Problem löst Du aber nicht, denn das Problem heisst "Lizenzschlüssel Generierung ist ineffizient". Nur weil man es kann, ist es nicht wirtschaftlich. Die Frage ist, ob es ein Produkt gibt, das mit Eurer Lizenzerzeugung kompatibel ist, wenn ja was bekommt man dann?
  4. flashpixx

    Umsetzungsproblem

    Dieses Problem ist aber nicht linear. Du willst aus eine Menge an Lösungen die Lösung mit einer bestimmten Bedingung finden und das ist so erst mal NP-vollständig, denn ohne Randbedingungen musst Du Dir jede Lösung anschauen und prüfen, ob sie eben "optimal" ist. Zauberwürfel Gottes Algorithmus Der Algorithmus setzt letztendlich die algebraische Gruppe entsprechend um, d.h. Du solltest damit beginnen, zu verstehen, was Gruppen und Graphen in der Algebra sind, denn das benötigst Du, um daraus passenden Code zu schreiben
  5. flashpixx

    Umsetzungsproblem

    Ah ja und wo sind bei dieser Problemstellung die lineare Funktionen?
  6. Soweit ich weiss, gibt es mehrere Produkte, die diese Funktionalität bieten, warum wird hier eine eigene Lösung gebaut? Ergänzend zu den Anmerkungen, würde ich hier ganz klar einmal prüfen, warum es eine eigene Lösung sein muss
  7. flashpixx

    Umsetzungsproblem

    Simplex-Verfahren wäre mit das bekannteste Verfahren aus der linearen Optimierung, aber das wird Dir hier nicht helfen, weil Du hier kein Optimierungsproblem hast. Die Lösungsstrategie lässt sich als gruppentheoretischer Algoritmus beschreiben, wobei ich dazu auch Java für eine völlig falsche Sprache, solche Probleme löst man GAP (Software)
  8. Ich sehe das Problem, dass Du hier letztendlich nur Code zusammen stellst, nen Webservice kann man heute per Klick erzeugen, Buttons und Aktionen auch, d.h. aufgrund der Diskussion sehe ich da nicht wirklich ein FIAE Projekt. Deshalb schreib einen Antrag, auch damit Du es übst, dann kann man sich das Projekt im ganzen einmal anschauen. Wenn Du sagt "ich mach nen WS und ein paar Buttons in einer GUI", dann ist das kein FIAE Projekt
  9. schreib einen kompletten Antrag
  10. Wie willst Du eine Webseite (HTML / CSS) mit einer Datenbank verbinden? Ohne eine Sprache wird dies nicht möglich sein, d.h. streng genommen wieder ein CMS. Außerdem ist das Entwerfen einer Webseite Aufgabe eines Mediendesigners und nicht einen FIAE. Dein Projekt wird durch Hinzufügen oder Weglassen von Teilen fachlich nicht besser. Du solltest ein passendes FIAE Projekt Dir suchen
  11. Die Installation eines CMS ist für den FIAE nicht ausreichend und ein eigenes CMS wirst Du in 70h nicht entwickeln können, da es wirtschaftlich in diesem Bereich genügend fertige Systeme gibt, die nur anhand der Vorgaben evaluiert werden müssen
  12. Wie man Fragen richtig stellt: eine Anleitung wie man Fragen erfolgreich in Usenet, Mailing Listen und Webforen stellt.
  13. Danke, genau darum geht es. Ich hatte in meinem ersten Post geschrieben: Dein Projekt umfasst nicht "Link Daten holen und indizieren", sondern Du machst hier eine Informationsklassifizierung und -bewertung, denn z.B. muss eine Information "Laptop" z.B. auf der Seite von HP höher bewertet werden, als z.B. die Information "Maus". Wenn ich dann noch eine Suche mache, dann muss aufgrund meiner Sucheingabe eine Bewertung der internen Daten durchgeführt werden, so dass ich z.B. im ersten Eintrag im Ergebnis das bekomme, was am besten auf meine Sucheingabe passt. Zusätzlich kommen typische Probleme wie Tippfehler und Uneindeutigkeiten. Bezüglich des Spams, wer sagt nicht dass vielleicht ein Azubi Dir einen Streich spielen will. Ich teste z.B. meine Software auch mit solchen fehlerhaften Eingaben, denn eine Software darf nicht in einen undefinierten Zustand gehen und bei Spam würde dann Deine Software ein Ergebnis erzeugen, dass undefiniert ist. Die fachliche Thematik, die Du hier als Azubi machen willst, könnte man ohne weiteres als Diplom-, Master- oder Dissertationsthema machen und möchtest das bzw. einen Teil davon in 70h bearbeiten?
  14. Beweise bitte einmal diese Aussage? Anhand welcher Kriterien willst Du das machen? Siehe Apache Lucene Du kannst weder belegen, dass Dein System besser ist als das alte, noch kannst Du belegen, dass zueinander gehörende Informationen besser gefunden werden. Man kann dies analysieren, nur gehe ich nicht davon aus, dass Du das kannst. Ich fasse also zusammen: Du schreibst keine Suchalgorithmen, Du nimmst einen Crawler und parst vorgegebene Seiten bzw. unbekannte Seiten und haust den Text einfach in eine Datenbank, die per Lucene Framework dann per Volltext durchsucht werden kann. Du kannst nicht belegen, ob das neue System eine Verbesserung des alten ist und ob die Ergebnisse der Suche - wie auch immer sie dann funktionieren mag - besser sind als vorher. Das ganze soll in eine Art "sozialem Netz" eingebunden sein, das eben dann möglichst in Echtzeit die Veränderung des Index darstellt. Du hast keine Kontrolle über die eingefügten Texte, d.h. wenn ich z.B. eine Spamseite eingebe, dann füllt sich die Datenbank mit Spam. Du kannst keine Sprachdifferenzierung machen, so dass ich die Suche einmal mit einem englischen und einmal mit einem deutschen Begriff machen muss, damit ich möglichst viele Ergebnisse erhalte. Du indizierst so genannte Stop-Words (Füllwörter). Du kannst kein objektives Ranking der Suchergebnisse anhand Deiner Daten vornehmen. Strukturinformationen, wie z.B. Verlinkungen betrachtest Du gar nicht. Die User geben irgendwelche Begriffe in das System ein, die Du einfach einpflegst, ohne ggf Rechtschreibfehler und Inkonsistenzen zu analysieren. Du nimmst, sofern nicht anders angegeben ist, immer die kompletten Texte (ich hoffe ohne HTML Code), Du hast somit eine sehr schnell wachsende Datenmenge mit einer Menge unnötigen Informationen (Stop-Words), die keine Relevanz für spätere Suche haben. Warum soll ich nicht einfach einen Browser aufmachen und direkt selbst bei Google suchen, die Ergebnisse dürften weit besser sein, als das was Du liefern kannst? Wirtschaftlich und fachlich kommst Du damit in meinen Augen auf keinen sinnvollen Ansatz.
  15. Nimm das Bsp, so wie ich es gegeben habe (da ich die Top Seite angegeben habe, soll es die gesamte Domain holen). Welche Information hat dann das System zum auswerten? Selbst wenn ich die ganze Domain lese, ist die Information zu meiner Produkteingabe absolut undefiniert und wenn ich nur die eine Seite lese, dann sind da keine nennenswerten Informationen drauf zu finden, die nützlich für eine Suche sind. Was macht also Dein System? Bezüglich des Crawlens kann man sehr schöne Beispiele konstruieren, wo eben ein naives Vorgehen zu sehr interessanten Sideeffects führen kann. Wenn ich nun die Frage stelle, wie "sinnvoll & wirtschaftlich siehst Du das Ergebnis Deiner Arbeit", dann kann man hier sicherlich sagen, dass die Qualität der Ergebnisse nicht sichergestellt ist und extrem variieren kann. Im Grunde verhält sich das Ergebnis Deiner Suche so, wie die Bewertungen bei Amazon. Amazon hat um sinnvolle Bewertungen berechnen zu können passende Algorithmen ( Collaborative filtering - Wikipedia, the free encyclopedia ). Du kannst hier also auch selbst sehen, dass man eben in ein solches System etwas mehr an Know-How rein stecken muss. Wenn Du nun sagst "ich mache nur den import / crawlen der Daten", dann würde ich fragen, wo ist da die fachliche Tiefe, denn Webseiten auslesen, durch nen (X)HTML Parser jagen und einfach ein INSERT INTO in eine Datenbank zu machen, ist definitiv zu wenig. Wenn Du nun in Deinem Projekt keine Textextraktion, keine Suchalgorithmik und keine Analyse machst, was bleibt dann fachlich noch? Für das Durchlaufen durch HTML Links gibt es fertige Tools, die braucht man nicht mehr entwickeln (Curl / Wget)
  16. Mir ist das Vorgehen nicht klar. Ich geb dem System einen Produktnamen und z.B. eine Liste von Links und dann? Ich meine man kann jetzt die Links allesamt durchgehen und den Inhalt extrahieren. Woher soll das System wissen, dass es bei Heise nachschlagen soll und vor allem mit welchem / welchen Stichwörtern !? Also z.B. ich gebe als Produkt "HP Notebook" an und dann gebe ich HP - United States | Laptop Computers, Desktops , Printers, Servers and more an, was soll dann passieren? In dem Fall ist das Produkt nicht definiert beschrieben und die Webseite verweist nicht auf ein genaues Produkt. Was machst Du, wenn die Webseite komplett Flash basiert ist, denn dann kannst Du gar keine Texte extrahieren? Was machst Du mit dynamischen Inhalten, die z.B. per Ajax geladen werden, denn diese Informationen wirst Du auch nicht direkt extrahieren können? Was machst Du, wenn der Crawler in ein Trap läuft, d.h. er kommt nicht mehr weg von einer Seite, weil keine externen Links mehr existieren?
  17. Im Grunde gar nicht, Du kannst aus einer Exe nicht den Quellcode zurück gewinnen, allenfalls ein Assembly und das wird Dir hier nicht weiter helfen. Nutze das Tool aus Deiner Software oder schau in der MSDN nach, ob Du ggf mit entsprechenden Windows Strukturen (COM, DCOM, ...) eine Komponente nutzen kannst, die Dir die Informationen liefert
  18. Ich möchte hier jetzt nicht in die Theorie gehen, aber es reicht nicht einfach Daten "irgendwie" zu crawlen, denn man muss zusätzlich auch die Struktur der Daten speichern, damit eine Analyse später überhaupt möglich ist. Nur Struktur und Inhalt zusammen ermöglichen es, ein sinnvolles Suchergebnis zu erzeugen, d.h. Du kannst nicht einfach nur den Inhalt erfassen und die Struktur völlig ignorieren. Man bewegt sich in diesem Bereich letztendlich nicht auf Testebene, sondern salopp gesagt im Bereich der Mustererkennung und dies setzt entsprechendes Wissen voraus. Zusätzlich muss man entsprechende Strukturanalysen machen, die auf solchen Webdaten durchaus sehr komplex sind, da hier sehr schnell große Datenmengen zusammen kommen und mit diesen gearbeitet werden muss. Bei einer naiven Herangehensweise wachsen die Laufzeiten exponentiell und somit können schon kleine Datenmengen zu sehr langen Laufzeiten führen, die in einer praktischen Anwendung nicht mehr machbar sind. Somit halte ich das gesamte Projekt nicht als geeignet, da Du weder die theoretischen Grundlagen hast, noch kannst Du wirklich fachlich richtig abschätzen was dort alles für Problematiken entstehen bzw. wie man diese dann auch real lösen kann. Z.B. wirst Du sicherlich ein relationelles Datenbankmodell entwerfen und in diesem Bereich ist dies fachlich schon eine sehr ineffiziente Lösung, denn die Daten wachsen quadratisch, d.h. wenn Du 10 Artikel hast, musst Du für die Struktur 100 Einträge speichern. Gerade für diese Systematik nimmt man keine relationellen Datenbanken, sondern andere Systeme.
  19. aus der IST Analyse geht nicht klar hervor warum Du das Projekt durchführen willst. Die nächste Frage, die sich eigentlich aus dem Problem ergibt, wie kannst Du "Ähnlichkeiten" erkennen bzw. wie gehst Du mit Schreibfehlern / unterschiedlichen Schreibweisen von Begriffen um, ebenso wie gehst Du mit unterschiedlichen Sprachen auf den Webseiten um? Wie entscheidest Du, welche Wörter relevant und welche nicht relevant für die Indizierung sind (Qualität der Suchergebnisse=? Was ich letztendlich sehe ist, dass Du einen eigenen Crawler schreibst, der eben eigene und verlinkte Seiten abläuft und irgendwie indiziert. Warum nimmst Du nicht ggf Google und holst Dir nur die Ergebnisse z.B. über die API? Weiterhin bezüglich des Crawlens würde ich sagen, dass mir nicht klar ist, wie Du Inhalte bewertest, denn Du musst entscheiden, wenn ich dann mit einem Schlagwort suche, wie die Reihenfolge der Suchergebnisse ist? ich verweise einmal auf Bag-of-words model - Wikipedia, the free encyclopedia bzw Precision and recall - Wikipedia, the free encyclopedia Wenn ich ehrlich bin, habe ich extrem fachliche Bauchschmerzen bei dem Thema, da ich sagen würde, dass das Indizien, Auswerten und Darstellen von solchen Inhalten als Ausbildungsprojekt zu komplex ist. Nach meiner Ansicht müsste man definitiv mehr in die Algorithmik und die Bewertung an theoretischen Grundlagen stecken, damit das Ergebnis hinreichend sinnvoll ist
  20. Führ das Projekt mal mehr im Detail aus, vor allem Punkt 4, denn im Moment klingt das nur noch bisschen jQuery Effekthasherei
  21. Stimmt nicht ganz PostgreSQL: Documentation: 8.1: Porting from Oracle PL/SQL
  22. Dann solltest Du auch in der Lage sein zu erkennen, dass ein ProxyPass alleine nicht ausreicht
  23. RTFM: mod_proxy - Apache HTTP Server "Forward Proxies and Reverse Proxies/Gateways" & "Basic Examples"
  24. "Geht nicht" ist keine aussagekräftige Fehlermeldung, Du möchtest Deine Logs lesen
  25. Wenn Du Ahnung von Elektronik hast, dann sollte Dir klar sein, dass Deine Hardware letztendlich "nur" eine Protokollspezifikation implementieren muss, eben z.B. USB. Das wirst Du so nicht bekommen. Wenn Du eine fertige Baugruppen kaufst, die es z.B. für USB gibt ( Mini-USB-Modul UM2102, Komplettbausatz | ELV-Elektronik ), dann bekommst Du dafür einen passenden Treiber, der eben die Hardware ansteuert (meist USB-Seriel-Umsetzer). Für C# musst Du dann wohl intern entsprechende Aufrufe für den Treiber selbst schreiben. Zusätzlich braucht Deine Elektronik aber mehr Intelligenz, um etwas zu messen oder zu steuern, d.h. eine USB Baugruppe wird nicht ausreichen. Ich denke, dass Du Deine Vorstellung "einfach ein paar LED zu steuern" oder "einen Taster" abzufragen noch einmal überdenken solltest. Ich würde Dir auch zu der Platine raten, die errox verlinkt hat, denn damit ist das was zu machen möchtest direkt möglich

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...