Zum Inhalt springen

flashpixx

Mitglieder
  • Gesamte Inhalte

    8302
  • Benutzer seit

  • Letzter Besuch

Alle Inhalte von flashpixx

  1. Was willst Du da eigentlich als Info haben? Ich meine wenn ich ne HDD mit DBAN lösche, dann sind die Daten weg und die Meldung "wiped" reicht aus, nämlich es ist kein Fehler aufgetreten. Mir erschließt sich da nicht, was Du damit wirklich machen willst, denn wenn die Platte gelöscht wurde, dann reicht die Meldung "ist gelöscht" und genau das liefert DBAN
  2. Darik
  3. Welche Sinn hat das aus wirtschaftlicher Sicht? Ich meine Du hast zwei Rechner, musst ggf noch ein Acronis dazu kaufen, was Kosten verursacht und nur dafür um eben einen Rechner zu klonen. Zusätzlich hast Du damit noch nicht den Fall abgedeckt, dass der Rechner von dem Du das Image ziehst Domänenmitglied ist und Du das Image auf den zweiten Rechner kopierst, sofort Probleme machen wird, denn zwei Rechner mit gleiche SID / Namen sind nicht erlaubt. D.h. mit dem Vorhaben Acronis zu verwenden (warum überhaupt Acronis und nicht was anderes !?) holst Du Dir einmal technische Probleme rein und wirtschaftlich, das für Dich wichtig ist, wirst Du nicht begründen können, warum Du für zwei Rechner so etwas machst, denn hier stehen dann Kosten zum Nutzen in keinem Verhältnis Wie schon gesagt durch etwas dran basteln wird das Projekt nicht besser. Dein Projekt bietet nicht genügend fachliche Tiefe
  4. Dein Projekt wird dadurch nicht besser, wenn Du mehr dran hängst, selbst wenn Du jetzt Scanner, Drucker und Fax nimmst wird es nicht besser. Wie schon geschrieben, ist das einmal kein Argument, zweitens wäre das ein Ansatz um ein Projekt zu bekommen, dass mehr Tiefe hat. Ganz ehrlich ich sehe da keine 35h Arbeit drin, es spielt auch keine wirkliche Rolle was Du da für Rechner anschaffst, denn sie müssen keine speziellen Anforderungen erfüllen und die Installation ist auch kein Argument, denn nur weil Du das per Hand machst, rechtfertigt das keine 35h, da es bei entsprechender Planung durchaus Mechanismen gibt das ganze effizienter zu machen. Wie gesagt man kauft ein definiertes Standardsystem und startet die automatisierte Installation. Du brauchst mehr fachliche Tiefe und das ist bei diesem Projekt schwer
  5. Ich tue mich damit schon etwas schwer, denn als Dienstleister hat man meist einen Lieferanten, der einem passende Rechner liefert und man würde gerade für Bürorechner ein Standardmodell nehmen, das man eben n-fach im Haus stehen hat, damit man nicht für jedes System ein eigenes Image erzeugen muss Man würde in einem Unternehmen nicht von Hand installieren, sondern eben ein Standardsystem bestellen und dann ein einfaches Rollout aus einem Image machen. Ist ne Sache von ein paar Minuten Fällt weg wenn man automatisiert installiert, denn die Kontrolle der Images sollte beim Erzeugen geschehen. Das ist für mich überflüssig, denn in ne Steckdose stecken bzw. Netzwerkkabel in die Dose stecken ist unerheblich. Das Einbinden in die Domäne ist auch irrelevant, wenn automatisiert installiert wird. Generell, Du musst die Zeiteinteilung detailierter auflösen, aber das Projekt ist extrem dünn. Wenn die Systeme, wovon nicht auszugehen ist, keine besondere Struktur haben, die eben händisch installiert werden muss, dann fehlt da definitiv die fachliche Tiefe. Auch wirtschaftlich ist da leider nicht viel "Butter" dabei. Ein Büropc hat leider auch keine besonderen Anforderungen, sondern da reicht Standardhardware, die man eigentlich bei seinem Lieferanten direkt per Telefonanruf erhält. Sprich anrufen, bescheid sagen, dass man n Rechner vom Typ x haben will, anschließen, Rollout machen, fertig. Evtl würde ich vorschlagen, ob Du nicht den Prozess der Installation von neuen Systemen betrachtest, d.h. die Kritikpunkte, die ich genannt habe, evtl in ein Projekt verarbeitest, so dass man eben schnell und effizient das System erweitern kann, d.h. feste Rechnermodelle entwerfen, dann eine passende Software für das Rollout auswählen und entsprechende Systemimagedefinitionen erarbeiten. Könnte allerdings eher etwas für einen FISI sein, aber da müsste man mal schauen.
  6. siehe die Handreichung Deiner IHK, aber ja es muss alles drin sein bzw. wenn es nicht drin ist, bekommst Du entsprechende Abzüge Ach so, nur weil man Befehle eintippen muss, erfordert das mehr Fachwissen? Dann würde der Linuxadmin, der alles per SSH eintippt gegenüber dem Windowsadmin wohl mindestens das 1000-fache verdienen müssen, denn er tippt ja alles ein und braucht damit sehr viel mehr Fachwissen. Denk mal bitte über dieses Argument nach.
  7. siehe Dein Handbuch zum Controller
  8. Es sollte reichen die Platten wieder zusammen zufügen, somit das gleiche Vorgehen, wie wenn eine Platte getauscht werden muss. Da Du nicht beschreibst warum der Defekt auftritt, ist das hier aber mehr raten. Falls der Raid Controller defekt ist, kann man versuchen diesen gegen einen neuen identischen zu tauschen und die Platte zu attachen, ist aber heikel. Ich würde dazu raten, das Raid neu zu erzeugen und das Backup zurück zu spielen
  9. Evtl würde ich da erst einmal mit Anfangen, dass Du z.B. für ein CMS (Joomla, Typo, Wordpress) mal ein Theme / Plugin bastelst. Ich denke HTML / CSS solltest Du Dir SELFHTML 8.1.2 (HTML-Dateien selbst erstellen) und evtl jQuery anschauen (aber ich empfehle dann auch Buch zu den Grundlagen der Programmierung). Bei Websachen kommt dann evtl noch PHP, Python o.ä. und eine Datenbank (meist mySQL) dazu.
  10. Kommt drauf an, würde ich sagen. Der Sinn eines DW ist ja, die Daten zu sammeln, d.h. da ich nicht lösche wächst mein Datenstamm im Grunde unbegrenzt. Wenn ich - so verstehe ich den Antrag - die Grundlage des DW plane, dann ist das natürlich ein wichtiger Punkt, denn wenn die Basis des DW schlecht ist, dann ist nach 1 Jahr ggf Schluss. Wenn es "nur" darum geht aus einem DW Daten zusammen zu ziehen und mit Hilfe eines Reports dar zu stellen, dann sehe ich da keine Probleme für einen FIAE. Ich sehe aber hier den Punkt 3 im Gewicht, denn da steht ja explizit "Planung des Datawarehouse". Die Planung einer DW halte ich definitiv nicht möglich für einen FIAE, da das notwendige Fachwissen fehlt. Auswertungen in einem DW finde ich ein durchaus sinnvolles Projekt, weil man da auch direkt schön die wirtschaftliche Komponente einbauen kann. Du beschreibst es ja auch schön, dass die Auswertung mit etwas Lernaufwand machbar ist, das sehe ich ebenso. Nur denke ich, dass, wenn ich sagen würde "Entwickle mal ein DW + Auswertungsalgos", dass das locker dem Umfang sprengt, selbst vom Zeitaufwand (Entwicklung eines DW ist für, dass ich die Grundlagen schaffe, um ein DW speziell für einen Betrieb zu betreiben).
  11. und deswegen muss man nicht lernen was eine Liste oder ein Baum ist? Balzert setzt auch kein Vorwissen voraus und Sedgewick beginnt mit "Was ist ein Algorithmus"
  12. Balzert beleuchtet in seinem Buch den Algorithmus / Modell / Implementation, Sedgewick die Datenstruktur. Das typische bei Sedgewick sind z.B. Listen, Binär-/AVL-Bäume etc. Man braucht beides. Beide Bücher sind im Grunde Stoff der ersten Semester der Informatik und geben einen sehr guten Einblick in die Basisstrukturen, unabhängig von einer Programmiersprache. Z.B. eine std::map in C++ ist ein Baum, nur sollte man wissen was es für ein Baum ist, d.h. welche Operationen dort dann effizient laufen und welche nicht und aus Modellsicht, wie funktionieren die Vergleiche in der Map. Ich halte es für unerlässlich, dass ein Einsteiger eben Datenstrukturen kennt Was ist wohl sinnvoller wenn man Daten sortieren möchte, alle Daten in Array zu packen und dann ein sort über das Array laufen zu lassen, wobei direkt das Problem mit Arrays auftreten, das es meist rein statische Datenstrukturen sind bzw. ich muss irgendetwas basteln, damit es dynamisch wird oder ich nehme direkt eine geordnete Datenstruktur, in der beim Einfügen / Löschen der Datensatz direkt an die passende Stelle gesetzt wird. Diese Fragen klärt Sedgewick in seinem Buch
  13. Kennst Du Dich mit den theoretischen Grundlagen von OLAP und Data-Mining aus? Denn ein Datawarehouse sind nicht "nur ein paar Tabellen", denn die späteren Auswertungen sind essentiell für das DW und diese beeinflussen später die Struktur. Ebenso hat man immer mit Hypercubes zu "kämpfen", d.h. mit mehrdimensionalen Datenstrukturen und diese lassen sich nicht auf triviale Weise in ein relationelles Datenbankmodell überführen. Ich halte das Projekt DW für einen Auszubildenden nicht machbar, weil da definitiv die theoretischen Grundlagen aus der linearen Algebra und die Data-Mining Algorithmen bzw. deren Funktionsweise deutlich mehr an Know-How benötigen.
  14. Im Grunde okay, aber da fehlt noch bisschen was drum herum, also z.B. in welchem Zusammenhang das benötigt wird, welche Systeme eingesetzt werden, etc
  15. Du willst ein "komplettes Datawarehouse" entwicklen?
  16. ich kann Dir noch 2 Bücher ans Herz legen http://www.amazon.de/Lehrbuch-Grundlagen-Informatik-Algorithmik-Software-Technik/dp/3827414105/ref=sr_1_8?ie=UTF8&qid=1362481158&sr=8-8 Algorithms: Amazon.de: Robert Sedgewick, Kevin Wayne: Englische Bücher
  17. Je mehr hier zerrissen wird, um so sicherer kannst Du Dir später sein, dass das Projekt solide steht. Wenn Du Samba verwendest hast Du einen zusätzlichen Dienst, der auf dem Proxy entsprechendes Potential zum Angriff bietet, im Grunde muss der Proxy nur "irgendwo" nachschauen, ob und welcher User authententifiziert ist, d.h. Du brauchst keinen weiteren Dienst auf dem Proxy. Mit einer Firewall kann man nur Datenverkehr in/aus dem Netz blockieren bzw. ggf über andere Rechner umleiten (transparenter Proxy). Der Proxy ist lediglich nur ein fetter Cache mit evtl diversen Prüfungen / Filtern. Zu "besserem" Schutz führt das erst mal nicht. Gerade bei Deinem Projekt wäre meine erste Frage "wo steht denn der Proxyserver im Netz", denn im Grunde muss kein Client direkt mit dem INet kommunizieren, sondern nur der Proxy macht das und damit wäre es durchaus sinnvoll den Proxy in der DMZ zu platzieren. Wäre also die Frage, wo ist bei Dir im Netz die DMZ? Wenn Du sagst, dass diverse Server für das Rendering benutzt werden und die "besonderen" Schutz haben müssen, wäre also auch die Frage, warum stehen diese im gleichen Netz wie die Clients, man würde doch wohl eher sagen, diese Server gehören in ein eigenes Subnetz, das man durch eine zusätzliche Firewall oder einen Router mit entsprechenden ACLs absichert. Diese Renderingserver müssen ja nur mit den Clients kommunizieren, d.h. INet Zugang brauchen sie gar nicht. Dann wäre direkt die Frage in diesem Bezug. wie bekommt man Softwareupdates auf die Rechner, womit man dann eben bei entsprechenden Paketverwaltungssystemen landet. Ebenso dann direkt, wie würde man vorgehen, was passiert, wenn z.B. eine Schadsoftware auf einem der Clients landet, im Moment verseuchst Du Dir das gesamte Netz, wenn der Virenscanner nicht greift, d.h. von den Renderservern, über Deine AD und was sonst noch alles drin ist. Durch die Auftrennung in entsprechende Subnetze kann man eben wichtige Systeme herausnehmen und gesondert schützen (z.B. die Renderserver kommunizieren einzig und alleine über einen Port mit den Clients). D.h. wenn ein Client sich etwas einfängt, dann würde Du im schlimmsten Fall sagen, ich mache alle Clients per Softwareverwaltung platt und lasse sie automatisch neu installieren, womit wir dann zum Thema der Lizenzen und deren Verteilung kommen, da Du ja sicherlich keine Lust hast, überall per Hand die Lizenznummern einzugeben. Es geht in Deinem Projekt ebenso um wirtschaftliche Punkte und Deine Argumentation ist in diesem Fall nicht wirtschaftlich, denn der Proxy, so wie Du ihn planst bietet keinen wirklichen Schutz, d.h. ich habe letztendlich Arbeitszeit, Pflegeaufwand & Kosten für einen weiteren Server, erhalte damit aber keinen Schutz. Hier wäre die Frage, ob Du das belegen kannst. Du müsstest ja irgendwie anhand von einer Wahrscheinlichkeitsanalyse zeigen, dass das Risiko im Vergleich zu vorher geringer geworden ist. So würde ich Dir das aus den oben genannten Gründen nicht abnehmen, da ich dann auch argumentieren könnte "ich stelle eine neue Firewall hin und habe einen besseren Schutz". Da Dein Projekt sich in irgendeiner Weise auf das gesamte Sicherheitskonzept der Firma auswirkt, ist durchaus die Frage erlaubt, was habt ihr denn als bisheriges Sicherheitskonzept und warum müsst ihr das nun verändern / verbessern. Ist im Grunde der Ausgang für Dein Projekt, denn wenn das Konzept ja solide wäre, würdest Du das Projekt ja nicht machen. Das ist eine Streitfrage, denn das ist abhängig vom Netz z.B. wenn ein VPN eingesetzt wird oder wenn ich den proxy via Loadbalancing eben skalieren möchte, dann würde ich Firewall und Proxy trennen. So ein "All-In-One-Gerät" kann eine Lösung sein, muss es aber nicht und gerade bei Deinen Schilderungen würde ich da durchaus auch sehen, dass man hier aus Kostengründen einfach möglichst viele Systeme auf die gleiche physikalische Maschine bringt. Welche anderen Lösungen!? Also mir wäre nicht bekannt, dass ich für die Benutzung eines Proxys neue Nutzerprofile brauche. Außerdem würde man sicherlich eh auf dem Proxyserver nur den Administrator als User haben (+ die User die für die Dienste notwendig sind). Z.B. wird bei GMX oder Web.de jede neue EMail Adresse nicht dazu führen, dass auf dem System ein neuer Systemuser (mit Shellzugang) generiert wird, das gleiche gilt für einen Proxy. Der Proxy muss, wie auch immer, nur prüfen ob ein User authentifiziert ist, er muss und sollte gar nicht selbst authentifizieren. Und mit Username & Passwort die Identifikation zu machen, ist auch eine schlechte Idee, denn wenn ich als Mitarbeiter geschickt bin, schaue ich bei meinem Kollegen bei der Passworteingabe über die Schulter und nutze dann seine Daten für das Login am Proxy. Es gibt Systeme, die es Dir ermöglich am Proxy fest zu stellen, welcher User an welchem Client angemeldet ist ohne dass der User irgendetwas im Browser einstellen muss. Da Du schon von einer Firewall gesprochen hast, nehme ich an, Du wirst einen transparenten Proxy aufbauen, denn sonst wäre meine Frage, wie bekommst Du auf alle Systeme die korrekten Browsereinstellungen Jeder weiß, dass Du in 35h kein komplett neues Netz planen kannst und auch sollst. Nur sollte Dir bewusst sein, dass Du gerade mit Deinen Aussagen zu "Erhöhung der Sicherheit" auf ganz dünnem Eis stehst. Du siehst sowohl an Chiefs, wie auch meinen Anmerkungen, das wir da einige Kritikpunkte sehen. Ich möchte es einmal so formulieren: Ein Proxy kann einen Sicherheitszuwachs im Netz bringen, aber aus der Installation eines Proxy folgt nicht zwingend, dass damit automatisch die Sicherheit steigt. Du formulierst hier "ich baue einen neuen Proxy auf und damit ergibt sich eine erhöhte Sicherheit und besserer Komfort". Das Sperren von Seiten bedeutet nicht zwingend, dass das System weniger anfällig für Malware ist. Da heute sehr viele Seiten auf CMS Systeme setzen, können sich entsprechende Programme darüber verbreiten. Z.B. nehmen wir an, Du hast einen einzigen Mitarbeiter, der auf faznet.de gehen darf. Wenn sich nun die FAZ eine Malware einfängt und das nicht merkt und dieser Mitarbeiter nun die FAZ Seite aufruft, dann wird die Malware durch den Proxy in Dein LAN übertragen. Du hast immer eine gewisse Latenz bis Virenscanner Software erkennen. In diesem Fall wäre eben Deine Aussage zur "Erhöhung der Sicherheit" schlicht einfach falsch. Man würde in einem solchen Fall die Frage stellen "wie erreiche ich es, dass bei so einem Fall, meine 'wertvollen Systeme' keinen Schaden oder gar einen Ausfall haben". Einen Client kann man sehr schnell wieder aufsetzen, bei einem Server ist das schon aufwändiger bzw. dies kann massive Probleme mit sich ziehen, wenn z.B. Deine AD ausfällt und niemand sich an seinem System anmelden kann. Man würde dann einfach den Client einmal neu installieren, dann sind nur wenige Mitarbeiter davon temporär betroffen und ich minimiere die Ausfallzeit. Ich störe mich bei Deinen Aussage im Grunde nicht an einem Proxy, sondern dass Du implizierst, dass Du mit der Installation eines Proxys mehr Sicherheit im Netz erhalten wirst. In meinen Augen ist das Netz an sich nicht sicher und damit kann es durch das Hinzufügen eines Proxys definitiv nicht sicherer werden. Dir will hier niemand böse und gerade Chief, so wie ich ihn auch kenne, versucht durch diese Aussage Dir klar zu machen, wo Schwächen in Deinem Antrag sind (ebenso mache ich das). Diese Schwächen in Deiner Argumentation können Dir in der Prüfung durchaus sprichwörtlich auf die Füße fallen und das möchten wir hier eigentlich vermeiden. Vielleicht nur mal so ein Gedanke: Du scheinst ja einige Punkte im Netz zu haben, die nicht optimal laufen, überlege Dir doch einfach mal, ob dieses Projekt so wie Du es aktuell durchführen möchtest sinnvoll ist, oder ob Du vielleicht die Möglichkeit hast, etwas anderes zu machen und dann vielleicht die Proxyinstallation später machst und dieses als Ausblick in Deine Projektarbeit schreibst.
  18. Samba ist überhaupt nicht notwendig, ich werf' mal die Stichworte PAM, LDAP, Kerberos, Single Sign-on in den Raum. Der Zusammenhang zwischen Software(neu)installation und Proxy erschließt sich mir nicht. Im Normalfall erledigt man auch Neuinstallation sicher nicht per Hand, sondern mit Hilfe einer entsprechenden Paketverwaltung Du kennst den Begriff "Festplattenimage" ? Wenn Du neue Hardware einsetzt, dann wirst Du um eine Neulizenzierung nicht herum kommen, d.h. das Argument bezügl. Lizenzen ist irrelevant. Bei einer reinen Software Neuinstallation benutzt man entsprechende Verwaltungstools. Ach ja und die meisten "teuren" Programme wie z.B. AutoCAD, ProE, Maya, 3DS, Matlab etc arbeiten auch mit so genannten Lizenzservern zusammen, d.h. Software wird normal installiert und die Lizenzen werden zentral vorgehalten. Die Lizenzen werden dann dynamisch verteilt, in Deinem Fall erst wenn jemand das Programm startet, d.h. händisch muss man da nichts machen bzw. einmal die Installationsroutine, die automatisiert ist, anweisen sich eben beim Start mit dem Server zu verbinden. Z.B. an einer Universität, wo Ingenieursstudiengänge gelehrt werden, wäre es schier unmöglich alle ProE Clients per Hand zu installieren, also wird einmal ein Image erzeugt und ein zentraler Server bereit gestellt. Wenn die Lizenzen dann erschöpft sind, muss der User eben warten, bis eine Lizenz wieder frei gegeben ist. Sorry, Deine Argumente sind nicht wasserdicht Der Proxy wird dieses Problem nicht lösen. Wenn die Netzstruktur eben schlecht ist, dann kann man da auch nicht mit nem Heftpflaster etwas reparieren und mehr ist dann Dein Proxy nicht. Echt richtig tolle Lösung... Du baust ne "Eier-legende-Wollmilch-Sau", Proxy, Router, evtl noch Mail und vielleicht noch VPN alles auf eine Maschine. Zieh doch bitte gleich noch das komplette AD drauf, dann hat man es wenigstens als Hacker einfach, weil man gleich alle Daten zur Verfügung hat und da ja wunderbar alle Rechner im gleichen Netz sind komm ich dann an Eure teure Software & Lizenzen dran. Ich kann mir den Sarkasmus wirklich nicht verkneifen, aber merkst Du eigentlich was Du da machst? Hast Du schon mal darüber nachgedacht, dass Dir diese Fragen auch in der Prüfung gestellt werden könnten?
  19. Seit wann sperrt ein Proxy !? Das ist fachlich falsch Ah cool, d.h. ich darf ähhhh bei 3 Jahre Zugehörigkeit bild.de aufrufen und ab 10 y**p***.com Mich schüttelt es, wenn ich das lese. Ja kann es und die Listen gibt's auch gratis und man kann sie per HTTP sogar direkt tägl automatisiert aktualisieren. dem stimme ich auch ebenso zu, für mich klingt es nach "ach Mist, ich muss schnell meinen Antrag abgeben, also was nehm' ich denn da, ach ne Squid-Installation"
  20. im Normalfall bieten die Betreiber APIs an, um eben z.B. Auktionen zu steuern, d.h. CSV basierter Austausch ist veraltet, da er extrem Fehleranfällig ist. Ich tippe darauf, dass die Seitenbetreiber eine solche API haben z.B. Webservice / BPEL mit denen man arbeiten kann. CSV ist ein unstrukturiertes und nicht überprüfbares Datenformat und schon seit Jahre durch XML / XSD ersetzt, deshalb tippe ich darauf, dass so etwas eingesetzt wird
  21. Auf Tippfehler solltest Du noch mal prüfen ansonsten tue ich mich sehr schwer bezüglich CSV Daten, denn ich würde einmal prüfen, welche der Plattformen ggf einen Webservice / API zur strukturierten Steuerung bietet, gerade bei Ebay würde ich darauf wetten, das so etwas existiert. Gerade wenn dies der Fall ist und Du schon im Antrag dieses so formulierst, würde ich Dir dann eben sehr einfach belegen können, dass Du ineffizient gearbeitet hast.
  22. Geht nicht, siehe MAC-Adresse Du bekommst zwar eine MAC-Adresse, diese ist aber dann die Adresse des Routers des LANs in dem der Server steht (Details z.B. in den Cisco CCNA Unterlagen) und eine Sperrung auf IP-Ebene ist wohl auch nicht sinnvoll, denn bei den meisten Anbietern wechselt die IP alle 24h bzw. bei einem Reconnect. Eine Sperrung auf IP Ebene macht nur dann Sinn, wenn der User eine statische IP benutzt
  23. Der Router meldet nicht "Zielhost nicht erreichbar", sondern das ist das Resultat Deines Ping Versuches, siehe Internet Control Message Protocol Grundsätzlich wird durch das alleinige installieren bzw starten eines Dienstes so ein Problem nicht auftreten, d.h. Du musst irgendwas gemacht haben, was die ICMP Kommunikation unterbindet. Ich tippe entweder hast Du Du einen entsprechenden Wert unter /proc/sys/net/ipv4/icmp_echo_ignore_all gesetzt oder Du hast Firewallregeln iptables angepasst, die ICMP Kommunikation unterbinden Generell gilt aber "geht nicht" ist keine aussagekräftige Fehlermeldung
  24. Ich verweise mal der Vollständigkeit halber auf iptables , da diese bei den meisten *nixen eingesetzt werden und dazu dann die passende Lizenz GNU General Public License Es ist durchaus ein denkbares Modell, dass ein FW Hersteller z.B. ein Embedded Linux auf der Hardware einsetzt (mit entsprechenden IPTables), aber zusätzlich eben entsprechende Haftung / Wartung übernimmt, das eine schließt nicht zwingend das andere aus. OSS - sofern wir hier über GPL Lizenzierung reden - enthält ja nur: Ansonsten den Hinweis des Vorposters einmal beachten und die verschiedenen Lizenzmodelle anschauen also z.B. xGPL, BSD, MIT....
  25. Ich stell da jetzt mal die ketzerische Frage, wer sagt nicht, dass die Hardware Lösung auf Embedded Linux setzt und somit wäre Deine Theorie widerlegt.

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...