Welche Programmiersprache würdet ihr bevorzugen,

Silke, Donnerstag, 13.06.2019, 11:18 vor 1778 Tagen 5992 Views

wenn ihr noch einmal entscheiden könntet?

Hallo ihr Lieben,

könnt ihr mal kurz (oder gern auch länger) eure Position dazu anbieten.
Welche Programmiersprache wird die zukunftsträchtigste.
Alle anderen Aspekte wären natürlich auch interessant.
Das ist aber der für mich wichtigste Punkt.

Mir ist klar, dass jeder andere Vorlieben hat und verteidigt, wie bei der Beurteilungen von Autos, technischen Geräten oder irgendwelchen Prozessen oder Gedankengebäuden/Vorstellungen/Überzeugungen auch.
Ich brauche trotzdem mal ein paar andere Meinungen von Praktikern.

Vielen Dank im voraus [[herz]]

Liebe Grüße
Silke

Wenn mich jemand nach BWL/VWL-Inhalten fragen würde, täte ich inzwischen auch nur noch eine Empfehlung geben.

Was heisst "noch einmal entscheiden"?

FOX-NEWS @, fair and balanced, Donnerstag, 13.06.2019, 11:38 vor 1778 Tagen @ Silke 4976 Views

Es kommt auf die Aufgabe an.

Für Scripting klar Powershell, objektorientiert, läuft auf Windows und Linux (Powershell Core). IMHO was vom besten, was jemals die Werkstätten von Microsoft verlassen hat.

Für Standardprogramme irgendetwas objektorientiertes (C++, C#, Delphi o.ä.). DotNET und Visual Studio von MS ist auch hier auf weiten Strecken Standard ...

Und dann gibt es noch viele andere Programmierfelder ...

Grüße

--
[image]
Läuft in Deutschland ...

Die Frage ist ohne genauere Kenntnis des Einsatzgebietes nicht zu beantworten. (oT)

Julius Corrino @, Sur l'escalier des aveugles, Donnerstag, 13.06.2019, 12:13 vor 1778 Tagen @ Silke 4541 Views

- kein Text -

--
Ainsi continue la nuit dans ma tête multiple... elle est complètement dechirée... ma tête.
- Luc Ferrari

Nicht einfach, die richtige Frage zu stellen

D-Marker @, Donnerstag, 13.06.2019, 23:34 vor 1778 Tagen @ Julius Corrino 4091 Views

Die Frage ist ohne genauere Kenntnis des Einsatzgebietes nicht zu beantworten

Und ohne Kenntnis der Vorkenntnisse (auch Hardware) erst recht nicht.
Vlt. anfangs mit Assembler beschäftigen.
Dann weiß man erstmal, wer der richtige Berater ist.

Mehr subjektive, aber häufige Erkenntnis:

https://www.youtube.com/watch?v=1S1fISh-pag [[euklid]]

Schmunzel
D-Marker

--
https://www.youtube.com/watch?v=LqB2b223mOM

Cobol

kicker @, Donnerstag, 13.06.2019, 12:48 vor 1778 Tagen @ Silke 4910 Views

Hallo Silke,

meine Lieblingsprogrammiersprache war Smalltalk,
(ist aber leider ausgestorben bzw. von Java verdrängt worden)

Java kann jeder,
(insofern gibts hierfür zwar einen RiesenMarkt,
aber enorme Konkurrenz, und ist deshalb nur für Freaks lukrativ)

JavaScript ist weltweit am weitesten verbreitet
(und war mal die mit Abstand schlechteste Programmiersprache,
aber dafür gratis)

aber Cobol ist die Sprache mit der man am besten durchgekommen ist,
weil sie seit 40 jahren totgesagt wird,
und deshalb kein Jungspund sie mehr lernen wollte,
und deshalb alle Kenner und Könner 60plus sind,
aber sie für den Betrieb unserer Zivilisation unverzichtbar ist

IT + Lindy Effekt

"Java kann jeder"

Neigschmeckter @, Κύπρος, Donnerstag, 13.06.2019, 20:13 vor 1778 Tagen @ kicker 4510 Views

Hallo kicker,

ich habe schon viele Leute gesehen, die Java lesen und auch schreiben konnten, aber das wichtigste, nämlich dass das Konstrukt was sie da mit Java beschreiben, hinterher auch wartbar/erweiterbar wird, das können leider nur die allerwenigsten.

Es ist ein absolutes Trauerspiel wieviel Kohle manche Leute für komplette Stümperei raustragen. Auch die "konnten alle Java".

Hat jetzt zwar ein bisschen das Thema verfehlt, musste aber raus!

Gruß,
Neigschmeckter

Stimme zu - und ich verdiene mein Brot damit! (oT)

SchlauFuchs ⌂ @, Neuseeland, Freitag, 14.06.2019, 03:45 vor 1778 Tagen @ Neigschmeckter 3984 Views

- kein Text -

Python

Sylvia @, Donnerstag, 13.06.2019, 12:54 vor 1778 Tagen @ Silke 4861 Views

Welche Programmiersprache wird die zukunftsträchtigste.

Ich würde Python wählen. Python gibt es schon lange und erfreut sich aktuell zunehmender Beliebtheit (wegen der "Boombranchen" Machine Learning und Data Science).

Ist leicht zu lernen und mit ein paar Zeilen Code sind gute Ergebnisse zu erzielen.

Go find ich auch noch ganz cool. Auf Platz 1 ist derzeit JavaScript. Damit verwandt Node.js, Vue.js usw. Ist aber imho eher was für Masochisten[[freude]].

Im Prinzip ist es egal welche "moderne" Programmiersprache Du nimmst (kann auch Java, C++, ... sein). Die Grundlagen dahinter sind immer die selben: Objektorientierung, Vererbung, Schleifen, If-Then-Else, ... Das kannst Du meist 1:1 von einer Programmiersprache auf die andere übertragen.

--
"Der Computer ist die logische Weiterentwicklung des Menschen: Intelligenz ohne Moral." (John Osborne)
"Der Gutmensch ist die logische Rückentwicklung des Menschen: Moral ohne Intelligenz." (unbekannt)

Python als Sprache ist laecherlich

SchlauFuchs ⌂ @, Neuseeland, Donnerstag, 13.06.2019, 19:55 vor 1778 Tagen @ Sylvia 4546 Views

Welche Programmiersprache wird die zukunftsträchtigste.


Ich würde Python wählen. Python gibt es schon lange und erfreut sich
aktuell zunehmender Beliebtheit (wegen der "Boombranchen" Machine Learning und Data Science).

Jede Programmiersprache hat Staerken und Schwaechen, optimale Anwendungsgebiete, und nebenbei bemerkt, Python ist eine Skriptsprache und hat damit immense Schwächen. Blos weil eine Sprache einfach genug ist, dass auch nicht studierte Informatiker darin programmieren können, ist es nicht unbedingt die beste.

Python ist nur deswegen in Deep Learning so erfolgreich, weil die Funktionsbibliotheken mit dem ganzen KI-Gedöns so gut sind, aber die sind in C geschrieben und kompiliert - wurde die ganze Mathe da in Python ausgeführt, waere das Resultat viel zu langsam. Und das ist das Erfolgsprinzip in den faellen fuer Python. Man nehme die Macht von C und baut nen suessen Skript-Interpreter darum herum der das aufrufen kann ohne dass man die Komplexität von C lernen muss.

Ciao!
SF

Keineswegs lächerlich, als Einstieg.

Naclador @, Göttingen, Montag, 17.06.2019, 11:26 vor 1774 Tagen @ SchlauFuchs 3033 Views

Letzlich ist es fast egal, mit welcher Sprache man anfängt, zu lernen. Python hat den großen Vorteil, dass man sehr schnell Ergebnisse erzielt und so die Motivation erhalten bleibt.

Wichtig ist es, logisches Denken, Abstraktionsvermögen und algorithmisches Denken zu lernen und zu üben, das kann man in jeder Sprache tun. Maschinennahe Programmierung kann man dann später lernen, wenn es auf die Performance ankommt. Wenn nicht, sind vielleicht andere Ziele wichtiger, z.B. Interoperabilität mit Software von anderen Entwicklern, oder Portabilität in andere Betriebssysteme.

Aber man sollte Kinder nicht gleich mit fortgeschrittener Zeigerarithmetik verschrecken. Zunächst einmal sollte das Programmieren Spaß machen.

Mein Sohn hat sich gerade einen Raspberry Pi von seinem Taschengeld gekauft und lernt damit jetzt Python. Dazu hat ihn niemand überredet, das wollte er aus eigenem Antrieb. Besser geht es doch nicht.

Viele Grüße,
Naclador

--
"Nur die Lüge benötigt die Stütze der Staatsgewalt. Die Wahrheit steht von alleine aufrecht."
Thomas Jefferson

doch laecherlich

SchlauFuchs ⌂ @, Neuseeland, Montag, 17.06.2019, 12:33 vor 1774 Tagen @ Naclador 3065 Views

Letzlich ist es fast egal, mit welcher Sprache man anfängt, zu lernen.
Python hat den großen Vorteil, dass man sehr schnell Ergebnisse erzielt
und so die Motivation erhalten bleibt.

Zum erste Programmiersprache lernen mag es ausreichend sein.

Aber man sollte Kinder nicht gleich mit fortgeschrittener Zeigerarithmetik
verschrecken. Zunächst einmal sollte das Programmieren Spaß machen.

Wer sagt, das Zeiger keinen Spass machen?

Mein Sohn hat sich gerade einen Raspberry Pi von seinem Taschengeld
gekauft und lernt damit jetzt Python. Dazu hat ihn niemand überredet, das
wollte er aus eigenem Antrieb. Besser geht es doch nicht.

Da muss man ihm jetzt auch nicht reinreden. Aber mir stößt so einiges an der Sprache auf. Den Sprachen, eigentlich, weil Python 2 und 3 ja nicht kompatibel sind. Der aeltere, schwächere Standard dominiert seit bald zehn Jahren aufgrund der Bestandsprogramme.

Javascript (mt)

-Quantenfeldtheorie- @, Donnerstag, 13.06.2019, 14:41 vor 1778 Tagen @ Silke 4583 Views

...weil die Welt aktuell in die JS Richtung marschiert. Wie sieht es in 5 Jahren aus? Keiner weiß es... :)

Was ich gelernt habe:
- Python, weil ich es in meinem Berufsumfeld sehr gut verwenden kann.
- Haskell. Warum? Weil es das Gehirn massiert und gut tut, funktionale Programmierung zu kennen.

Viele Grüße,
QFT

Qual der Wahl

Echo @, Donnerstag, 13.06.2019, 14:53 vor 1778 Tagen @ -Quantenfeldtheorie- 4506 Views

bearbeitet von unbekannt, Donnerstag, 13.06.2019, 15:01

...weil die Welt aktuell in die JS Richtung marschiert. Wie sieht es in 5
Jahren aus? Keiner weiß es... :)

Aus der Javascript-Ecke kommt auch viel Müll, darum sollte man sich nicht zu sehr darauf versteifen - aber als Haupt-Scriptingsprache der Internetbrowser kann JS durchaus hilfreich sein. Ob mit oder ohne Framework - da muss man seinen Stil finden. Die JS Landschaft ist insgesamt aber echt schräg.

- Python, weil ich es in meinem Berufsumfeld sehr gut verwenden kann.

Python ist ganz in Ordnung als verständliche Skriptsprache, hat aber wie jede Sprache ein paar Macken. Mal schauen ob es mit V4 besser wird.
Python wird ja als *die* Sprache im Bereich Datenanalyse gehandelt. In dem Bereich habe ich bisher aber nicht gearbeitet.

- Haskell. Warum? Weil es das Gehirn massiert und gut tut, funktionale
Programmierung zu kennen.

Haskell kann durchaus Spaß machen, habe selber damit einige Zeit herumgespielt. Ich kann es mir jedoch nicht im Produktiveinsatz vorstellen.

Es gibt noch so viele andere Sprachen, mal mit mehr oder mit weniger Hype. GO scheint eine Zukunft zu haben, sei auch deutlich leichter zu erlernen als Rust. Das Design von GO scheint einigermaßen durchdacht, hat aber ein paar Schwächen.

Wenn es Richtung mobile Apps gehen soll, wäre Flutter/Dart eine interessante Idee. Eignet sich, um fix etwas für alle gängigen Plattformen zu entwickeln. Allerings gibt es hierbei ein paar prinzipbedingte Einschränkungen.

Der Trend geht ja außerdem zur Cloudisierung, hier kann man sich in Containervirtualisierung und Kubernetes einarbeiten. Dafür gibts sicherlich einen großen Markt, denke ich - wenn man bedenkt dass einige der größten Unternehmen der Welt in genau diesem Bereich tätig sind.. Google, Amazon, Microsoft, ...
Ich persönlich verusche meine Apps jedoch so wenig komplex und teuer wie möglich zu machen. Dieses Cloud-Zeugs ist da manchmal eher hinderlich und sollte nur angewandt werden wo sinnvoll.

Wie du schon sagst, das kann sich alles schnell ändern. Keiner weiß, was in 5 Jahren angesagt ist. Am Ende kann man jedoch so gut wie alle Programmiersprachen verwenden um zum Ziel zu kommen. Für stinkeeinfache Webseiten nutze ich daher das, was ich schon kenne, auch wenn es alles andere als 'in' ist. Weil ich da nicht viel Nachdenken muss.

Javascript wird sich als Fehler herausstellen

SchlauFuchs ⌂ @, Neuseeland, Donnerstag, 13.06.2019, 20:10 vor 1778 Tagen @ -Quantenfeldtheorie- 4399 Views

Bloß weil viele es machen, ist es noch lange nicht das beste (Siehe VHS, Bluray). Javascript und NodeJS haben riesige Sicherheitslöcher, vor allem in der Modulverwaltung. Und Javascript hat wie alle Skriptsprachen keinen Zugriff auf ordentliches multithreading. Die Geschwindigkeit ist auch schwach, selbst wenn sie jetzt JIT einbringen.

https://www.cvedetails.com/vulnerability-list/vendor_id-12113/product_id-30764/Nodejs-N...
https://www.computerweekly.com/tip/Vulnerabilities-in-JavaScript-Secure-coding-insights...

Fehler im Konzept

QuerDenker @, Freitag, 14.06.2019, 11:00 vor 1777 Tagen @ SchlauFuchs 3812 Views

Hallo Schlaufuchs,

die 'konzeptionelle Sicherheitslücke' von JavaScript ist immer noch die, dass man überhaupt browser-/clientseitig unkontrolliert 'beliebigen' Fremdcode auf den eigenen Rechner lässt... [[zwinker]]

Ach sollte man drüber nachdenken, warum ein großer Teil der angeblich 'unersetzbaren' Bilbliotheken von Goo.. usw. kommen - und das meist mit Links auf G.-Servern anstatt eine aktuellen Kopie serverseitig zu bereitzustellen bzw. zu nutzen...
Keiner scheint hier an Metadatengenerierung zu denken?

Ich würde jedem Programmieranfänger sowieso raten, sich als Training grundlegende Tools und Bibliotheken selbst zu erstellen -- und ja: das widerspricht dem heutigen 'Standard' des 'wilden Zusammenschusterns' von Dutzenden von größtenteils unnötigen (und oft 'riesigen') Fremdbilbliotheken ohne sich über Datenvolumnia und Speicher-/CPU-Last usw. Gedanken zumachen -- und ebenso OHNE sich über 'Metadatengenerierung' Gedanken zu machen.

Gleiches bzgl. Metadatengenerierung trifft nebenbei auch auf die __zentralisierte__ und angeblich 'ebenso unentbehrlichen' Validerung von SSL-Zertifikaten zu, wie die grundsätzliche Unnötigkeit alle sowieso offenen nur-lese Webinhalte plötzlich über https zu fahren.
IMHO auch nur ein weiterer Versuch die speziell Metadaten - also wer/was/wann/... - vom Nutzer=Browser voraufbereitet zentral geliefert zu bekommen [[sauer]]

Beste Grüße

QuerDenker

--
10cc: 'communication is the problem to the answer' <img src=" />

korrekt

SchlauFuchs ⌂ @, Neuseeland, Freitag, 14.06.2019, 11:14 vor 1777 Tagen @ QuerDenker 3826 Views

Hallo Schlaufuchs,

die 'konzeptionelle Sicherheitslücke' von JavaScript ist immer noch die,
dass man überhaupt browser-/clientseitig unkontrolliert 'beliebigen'
Fremdcode auf den eigenen Rechner lässt... [[zwinker]]

In diesem Kontext möchte ich auf das Chrome plugin ScriptSafe hinweisen. Damit kann man schon so einiges an clientseitigen scripts blockieren, ohne hinsehen zu müssen. Bestimmte Zeitung schuetzen ihren Ausschuss auch mit Javascript. da schalte ich das pauschal ab um hinter die Paywall zu spicken.

Ich als Java-Software-Ingenieur wuerde empfehlen,

SchlauFuchs ⌂ @, Neuseeland, Donnerstag, 13.06.2019, 20:00 vor 1778 Tagen @ Silke 4714 Views

C++ zu lernen. Alternativ ist Java auch nicht schlecht, und seit kurzem kann man Java-Skripte auch unkompiliert von der Eingabezeile ausführen.

Rust!

Neigschmeckter @, Κύπρος, Donnerstag, 13.06.2019, 20:05 vor 1778 Tagen @ Silke 4406 Views

Hallo Silke,

ich code beruflich, fast ausschließlich in Java.

Java ist nicht "hip", und über Zukunftsträchtigkeit kann man streiten. Ich denke jedoch, wenn ich sehe, wieviele grauhaarige Leute bei uns in der Bank mit RPG, und sonstigen uralten IBM-Technologien noch Geld verdienen, dass zukunftsträchtig auch das ist, was heute viel verwendet wird, denn irgendwer muss die bestehenden Systeme auch in Zukunft warten können, und da lässt sich mitunter richtig Geld verdienen.

Wenn ich mir jedoch jetzt eine zukunftsträchtige Sprache aussuchen würde, fiele die Wahl auf Rust.

https://www.rust-lang.org/

Rust wird von der Mozilla Foundation entwickelt, und hat für mich das Zeug, C/C++ irgendwann abzulösen. Es ist eine Sprache, die auch zu binären, direkt ausführbaren Programmen compiliert, und ähnliche Performance wie C/C++ bietet, aber durch kluge Sprachkonstrukte (Borrowing/Ownership) das Speichermanagement übernehmen kann und viele Fehler ausschließt, die man mit C/C++ noch machen kann.

Ich mag die Leute, die das entwickeln, das sind echt kluge Köpfe, die wissen, was sie tun!

Gruß,
Neigschmeckter

Kurz: C/C++

konstantinkoll @, Iserlohn, Donnerstag, 13.06.2019, 20:44 vor 1778 Tagen @ Silke 4503 Views

Hallo,

als ITler und Hochschuldozent erlaube ich mir hier eine Antwort.

Natürlich ist die Sprache vom Einsatzgebiet abhängig; ich gehe davon aus, dass mit "Programmiersprache" eine "richtige" Sprache gemeint war und keine Scriptsprache.

Hier führt meiner Meinung nach kein Weg an C/C++ vorbei. Wer diese Sprache beherrscht, findet sich auch schnell woanders zurecht. Es gibt verschiedene C-Dialekte; wer beispielsweise unter Windows programmieren will, kommt um Microsoft Visual C nicht drum herum. Die Entwicklungsumgebung Visual Studio ist eine der besten, die ich kenne, und kann mit etwas Geschick auch für andere Sprachen benutzt werden. Wer für iOS programmieren möchte, wählt Objective C oder wirft mal einen Blick auf das neuere Swift.

Abraten muss ich von Java: der plattformunabhängige Traum ist inzwischen gehörig ausgeträumt, und das gesamte Java-Ökosystem befindet sich in langsamen Verfall. Das heißt natürlich nicht, dass Java nicht mehr benutzt wird - für zukunftsfähig halte ich das nicht.

Wer es etwas exotisch mag und ein wirkliches Fundament legen möchte, beschäftigt sich nach C/C++ mit x86-Assembler.

Kurz: Zustimmung!

Broesler @, Donnerstag, 13.06.2019, 23:56 vor 1778 Tagen @ konstantinkoll 4271 Views

Wer diese
Sprache beherrscht, findet sich auch schnell woanders zurecht.

Ahoi

--
* Let's Chart
* #PopcornLong
* "You can ignore reality, but you can't ignore the consequences of ignoring reality." Ayn Rand
* "The universe offers infinite potential to those who dare." David Kipping

Gutes Material um C++ zu lernen

mabraton @, Freitag, 14.06.2019, 07:35 vor 1778 Tagen @ Broesler 4201 Views

bearbeitet von unbekannt, Freitag, 14.06.2019, 07:38

Hallo zusammen,

als Entwickler der im Datenbank-Umfeld arbeitet habe ich die C++-Entwicklung immer aus der Ferne beobachtet. Aufgrund meines vergleichsweise eher schnöden Aufgabenfeldes habe ich Entwickler die C++ beherrschen immer bewundert. Jüngst hat sich die Möglichkeit ergeben im C++-Umfeld zu arbeiten. Als jemand der Objektorientierung kann aber weit davon entfernt ist das Thema durchdrungen zu haben wäre ich für Empfehlungen dankbar wie man sich am Besten in C++ einarbeitet. Dabei sollen die sprachspezifischen Paradigmen im Vordergrund stehen. Bspw. hatte ich bisher kaum Berührung mit Pointern und Speicher-Management. Auch die C++ eigenen OO-Mechanismen und Muster interessieren mich.

Zur Fragestellung des Fadens in Kürze so viel, ich alte 1.Performance, 2. Performance und 3.Performance für wichtig. Das ist auch ein Grund weshalb mich C++ interessiert.

Besten Dank & Grüße
mabraton

In früheren Zeiten war C der Freistil ohne Sicherungsnetz

FOX-NEWS @, fair and balanced, Freitag, 14.06.2019, 14:07 vor 1777 Tagen @ mabraton 3830 Views

als Entwickler der im Datenbank-Umfeld arbeitet habe ich die
C++-Entwicklung immer aus der Ferne beobachtet. Aufgrund meines
vergleichsweise eher schnöden Aufgabenfeldes habe ich Entwickler die C++
beherrschen immer bewundert.

Da greifen die Compiler heute bestimmt rettend ein. Vor allem mit Pointern konnte man die tollsten Abstürze produzieren ... [[freude]]

Grüße

--
[image]
Läuft in Deutschland ...

Ach was

Kaladhor @, Münsterland, Freitag, 14.06.2019, 22:07 vor 1777 Tagen @ FOX-NEWS 3684 Views

entweder hat man die Tatsache akzeptiert, dass man ohne Sicherheitsnetz arbeitet, oder man hat sich ein solches selber programmiert :)

Grüße

--
Ich bin nicht links, ich bin nicht rechts, ich kann noch selber denken!

Du bist gut

FOX-NEWS @, fair and balanced, Samstag, 15.06.2019, 03:28 vor 1777 Tagen @ Kaladhor 3606 Views

entweder hat man die Tatsache akzeptiert, dass man ohne Sicherheitsnetz
arbeitet, oder man hat sich ein solches selber programmiert :)

Wie willst du in C ein Sicherheitsnetz programmieren, daß deine eignen Bugs abfängt (z.B. Schleifen, die dazu führen, daß man fröhlich einmal quer durch den Speicher pflügt [[freude]])? Da nimmt man eben Pascal mit entsprechender Speicherüberwachung.

C ist schnell und dreckig ... und man muss wissen, was man tut. Somit bietet es auch für Anfänger den höchsten Erziehungs- und Lerneffekt. [[top]]

Grüße

--
[image]
Läuft in Deutschland ...

Bei Visual Studio von MS ist die Sprache schon fast Geschmackssache

FOX-NEWS @, fair and balanced, Freitag, 14.06.2019, 13:50 vor 1777 Tagen @ konstantinkoll 3795 Views

VB, C++, C#, alle verwenden die gleichen Bibliotheken und Schnittstellen. Die selbstfabrizierten Code-Teile machen nur einen geringen Teil des Endproduktes aus ... also eher eine Stilfrage.

Wer es etwas exotisch mag und ein wirkliches Fundament legen möchte,
beschäftigt sich nach C/C++ mit x86-Assembler.

Assembler ist für das grundlegende Verständnis, wie Maschinen-Code aufgebaut ist, unerlässlich. Nur so versteht man, warum bestimmte Verfahrensschritte mal schneller, mal langsamer Ergebnisse liefern. Auf den heutigen Hochleistungsprozessoren läuft eigentlich jeder Murks schnell. Wenn aber wirklich große Datenmengen durchgerechnet werden - Stichwort Neuronale Netze - kommt auch da die Stunde der Wahrheit. Ich habe seinerzeit den Motorola 68000 geliebt ... mit dem Intel-Geraffel bin ich irgendwie nie warm geworden. [[sauer]]

Grüße

--
[image]
Läuft in Deutschland ...

Python und SQL

Freizahn @, Donnerstag, 13.06.2019, 21:04 vor 1778 Tagen @ Silke 4329 Views

Es kommt wohl darauf an was man programmieren möchte.
Für den Bereich Büro und Verwaltung sind Python und SQL von all den vielen Programmiersprachen die ich im Laufe der Zeit gelernt habe die beste Wahl.

Für vieles gibt es dazu auch sehr gute Erweiterungsmodule und Werkzeuge.

PHP ist sicher ein Muss, wenn man z.B. an Wordpress oder ähnlichen Anwendungen etwas verbessern möchte.

Als ich vor einigen Jahren einen Mikrocontroller programmieren lernen musste, weil ein bestimmtes messtechnisches Problem nur damit zu lösen war, musste ich dafür zwingend in C programmieren.

Es kommt immer darauf an was das Ziel ist und was die Anforderungen sind. Keine Programmiersprache ist immer und für alles die beste.

wenn ihr noch einmal entscheiden könntet?

Eine merkwürdige Frage, weil es so klingt als wäre die Entscheidung für eine Programmiersprache eine Entscheidung für's Leben. Es ist aber nur eine Entscheidung im Rahmen eine Projektes.
Ich habe z.B. einmal, vor rund 20 Jahren, Java gelernt und dann auf einmal festgestellt, dass das Problem das ich zu lösen hatte mit Python dank eines genialen Erweiterungsmoduls (wxPython) überhaupt nur oder zumindest drastisch schneller und eleganter lösen konnte. Danach habe ich mir Java nie mehr angesehen.
SQL wurde durch die Entwicklung von Postgresql für den Umgang Datenbanken sehr viel besser und professioneller als dBase, Foxpro und Paradox, die ich auch alle gelernt habe. SQL gab es vorher auch, aber es war für mich zu teuer - bis halt Postgresql aufkam und aus den Kinderschuhen war.
Für Messtechnik, Regelungstechnik und Steuerungen war anfangs, als ich mich erstmals mit soetwas befasst habe, Assembler, z.B. 8080 und 6502-Assembler die Programmiersprache der Wahl für kleine Anwendungen. Heute würde ich dafür C wählen. Es gibt aber für soetwas auch Basic. Eine Frage ist dabei auch die nach der benötigten Geschwindigkeit eine andere Frage ist die nach den Kosten der Hardware und auch nach den Kosten und Möglichkeiten der Entwicklungswerkzeuge. Was will man ausgeben? Was will oder muss man wie schnell erreichen?

Mir geht es darum, was IHR favorisiert und warum ihr was für ZUKUNFTSTRÄCHTIG haltet.

Silke, Donnerstag, 13.06.2019, 21:40 vor 1778 Tagen @ Silke 4289 Views

bearbeitet von Silke, Donnerstag, 13.06.2019, 22:10

Vielen Dank, für die vielen Gedanken, die schon mal beim sortieren sehr helfen.

wir betreiben in unserem Elternnetz so eine Art "polytechnischen Unterricht" für Kinder draussen (Sport, Spiel, Abenteuer und Spass usw., Wald und Wasser mit Pflanzen/Tieren, Garten, Gemeinden) und drinnen (Handarbeit, Kunst, Musizieren, Sprachen, Zahlen, Bilder, Handwerkern usw.).
Berufstätige am Arbeitsplatz aufsuchen, bestaunen und mitmachen wie André Stern dargelegt hatte.

Ein Bereich ist auch: alle Altgeräte, derer wir aus dem Umfeld habhaft werden vor Entsorgung zerlegen und Funktionen erfahren oder an Fahrzeugen und Maschinen lernen.
Da auch z.B. alte Computer dazu gehören (zerlegen, zusammensetzen, Umgang mit Software) wollen wir auch programmieren mit rein nehmen.
Anfangen mit so etwas wie Calliope aber als Ziel Umgang mit Programmiersprachen.
Dazu möchte ich wissen, wo ihr zukünftige Schwerpunkte in unserer Gesellschaft vermutet, auf welche Ziele man sich mit welchen Tools konzentrieren könnte, und was nicht mehr sinnvoll ist.
Der Faden mit @Barbara hat mich sehr nachdenklich gemacht und ich bin der Überzeugung, dass sehr viele Berufe in den nächsten zehn Jahren schlicht verschwinden werden.
Hierbei geht es nicht vorrangig um Geldverdienen sondern um Begeisterung, die aus den Angeboten an die Kinder und Jugendlichen entstehen kann.
Eure bisher geschriebenen Gedanken stützen viele eigene Überlegungen und geben, wie erhofft, neue Ansätze.
Wir werden da jede angebotene Meinung ernst nehmen, die schon geschrieben wurde, und die noch nach diesem Posting kommt.

Ausserdem ist so ein Erfahrungsaustausch, bei dem sich viele von euch richtig Mühe machen,[[top]] bestimmt für viele andere Menschen auch spannend.
Das angebotene Kinderspielzeug halte ich nicht für kindgerecht.
Kinder wollen und können mit Erwachsenensachen und mit Erwachsenen umgehen.

Liebe Grüße
Silke

Falsche Optimierung. Ziel' auf die Entwicklung von algorithmischen Denken und Abstraktionsfähigkeit!

paranoia @, Die durchschnittlichste Stadt im Norden, Donnerstag, 13.06.2019, 22:57 vor 1778 Tagen @ Silke 4266 Views

Falsche Optimierung. Ziel' auf die Entwicklung von algorithmischen Denken und Abstraktionsfähigkeit!

Hallo Silke,

anbei ein Link zu einem Artikel von Joel Spolsky. Der hat für Microsoft VBA (Visual Basic for Applications) entwickelt, also Visual Basic innerhalb von Microsoft Office, nicht das officeunabhängige VB (Visual Basic). Dort findest Du die Begründung für den Betreff meines Beitrags:

https://www.joelonsoftware.com/2005/12/29/the-perils-of-javaschools-2/

Programmiersprachen sind nur Werkzeuge.
Je mehr man beherrscht, desto schneller kann man durch passende Auswahl der Sprache Probleme lösen, weil man eben eine Auswahl hat.
Oftmals wird aber das schlechtere Werkzeug gewählt, weil man mit diesem Werkzeug schon umgehen kann.

Vergiss Forendiskussionen zum Thema "welche Programmiersprache".
Da diskutieren Schmalspurprogrammierer auf dem Niveau von "Meiner ist der längste, bzw. meine Programmiersprache ist die beste".
Das liegt daran, dass die Leute nicht mehrere Sprachen können und die Sprache der anderen nicht besser sein darf.
Aufgrund meiner mangelhaften Werkzeugkenntnis darf ich mich mit Fug und Recht auch als Schmalspurprogrammierer bezeichnen.

Das von Dir beschriebene Konzept des polytechnischen Unterrichts finde ich richtig toll und zukunftsträchtig.

Ich würde Dir gerne auch das Thema Mikrocontrollerprogrammierung für Kinder ans Herz legen.
Die explosionsartige Verbreitung von Mikrocontrollern ist die eigentliche technische Revolution, von der Du in der Zeitung nichts liest. Dort steht nur etwas von der "Digitalisierung" und "KI".
Das sind zwei Säue, Modethemen, die in der IT-Branche durch's Dorf getrieben werden.
Wenn z.B. die Firma Lidl es nach mehreren Jahren Entwicklungszeit es nicht schafft, das eigene Warenwirtschaftssystem durch SAP zu ersetzen, braucht Lidl an "KI" überhaupt nicht zu denken.

Ich habe dieselbe Antwort schon einmal gegeben:

http://www.dasgelbeforum.net/forum_entry.php?id=252499

Forist DT sieht das ähnlich, lies seine Antwort auf meinen Beitrag.

Dein Konzept ist eine legitimes Konzept gegen die organisierte Verdummung, siehe hier:

https://www.faz.net/aktuell/feuilleton/forschung-und-lehre/mit-vera-hat-nick-leichtes-s...

Bei Kindern sollte man vielleicht (ich habe dafür kein Konzept) aus didaktischen Gründen eine einfache Sprache wählen, die schnelle Erfolgserlebnisse verspricht. Den Infizierten legt man dann vielleicht µc-Programmierung in C nahe.

Das ist alles nur meine Meinung, das kann auch falsch sein.
Hier geht es nicht um harte Fakten von Finanzmärkten...

Gruß
paranoia

--
Ich sage "Ja!" zu Alkohol und Hunden.

Wichtiger Beitrag von DT zu diesem Thema

Dan the Man, Freitag, 14.06.2019, 04:24 vor 1778 Tagen @ paranoia 4243 Views


Das von Dir beschriebene Konzept des polytechnischen Unterrichts finde ich
richtig toll und zukunftsträchtig.

Ich würde Dir gerne auch das Thema Mikrocontrollerprogrammierung für
Kinder ans Herz legen.
Die explosionsartige Verbreitung von Mikrocontrollern ist die eigentliche
technische Revolution, von der Du in der Zeitung nichts liest. Dort steht
nur etwas von der "Digitalisierung" und "KI".
Das sind zwei Säue, Modethemen, die in der IT-Branche durch's Dorf
getrieben werden.

Bitte lies dazu auch folgenden Beitrag von DT und die Antworten darauf:

http://www.dasgelbeforum.net/forum_entry.php?id=483231

Kommt auf das Alter an!

Mausebär @, Donnerstag, 13.06.2019, 23:12 vor 1778 Tagen @ Silke 4228 Views

Hallo Silke,

ich finde, dass es bei der zu verwendenden Programmiersprache stark auf das Alter ankommt:
Meine 10-jaehrige fuehre ich mit "Etoys" an die Programmierung ran. Mit selbstgemalten, bewegten Objekten (wie "Sprites" in den 80ern :-) wird die grundsaetzliche Logik "WENN - DANN" ec schnell verstanden. Macht Spass und der Erfolg ist schnell sichtbar.

Spaeter, so mit 12-14 wuerde/werde ich mit was abstrakterem anfangen. Wo man aber trotzdem schnell was sieht und einem nicht dauernd coredumps um die Ohren fliegen. Ev PHP und die Ausgabe als Webseite, da kenn ich mich aus, und debuggen ist einfach!

Danach: Typisiertere Sprache ec, wo mehr Disziplin und Planung noetig ist - Keine Ahnung was man da heute nimmt, frueher wars Pascal und Modula 2

Noch spaeter: C, C++ ec. mit Poinern, Speicher allokieren ec, wo ein Fehler schnell passiert und gleich Aerger macht => Konzequenzen lernen eben <img src=" />

ueberhaupt viel Spass mit eurem Projekt, klingt toll, was Ihr alles so mit den Kindern lernt!

viele Gruesse

Mausebaer

PS: Das sind nur meine Ideen, ich entwickle selber Software, bin aber kein Lehrer oder so!

Hallo Silke, die Kinder (mT)

DT @, Freitag, 14.06.2019, 00:03 vor 1778 Tagen @ Silke 4364 Views

bearbeitet von unbekannt, Freitag, 14.06.2019, 00:09

können schon mit 8 oder 9 Jahren mit Scratch anfangen. Das läuft außer auf PCs auch auf Raspberry Pis, und die kosten nur 30 EUR und sind super easy.

Können die Kinder Scratch, lernen sie algorithmisch denken und das ist laut Paranoia auch das wichtigste!

Von Scratch auf Python ist wie von Bildern auf Sprache, praktisch genau dasselbe. Und das schöne beim Raspi ist: Er hat auch In/Out Module. Damit ist er für Industrie 4.0 und für das Interfacing zwischen Soft- und Hardware geeignet. Da Deutschland ein Land der Industrie und Maschinen ist und auch bleiben wird und niemals wie Indien ein reines Softwareland werden wird, ist auch die Verbindung von Soft- und Hardware extrem wichtig. Wenn JEDER in Deutschland das zumindest im Grundsatz drauf hätte, wäre schon viel gewonnen, um den kommenden Untergang aufgrund grüner Morgenthau-Bertelsmann-Bulmahn-Verdummung hinauszuzögern.

In manchen Schulen in besseren Bundesländern wird im mat-nat und inf-Unterricht schon in der Grundschule Scratch und in der Unterstufe im Gymnasium Python gelehrt.

https://www.elektronik-kompendium.de/sites/raspberry-pi/2205281.htm

Noch kleinere Kinder können auch Lego-Mindstorms machen, dazu gibt es wunderschöne Schul-Kits. Ich habe das sowohl bei meinen Kindern als auch bei Schülern in der Schule meiner Kinder, wo ich das als Projekt (im Rahmen freiwilliger Elternmitarbeit) angeboten habe, gemacht und sie sind superschnell, die Programmiersprache von Lego Mindstorms zu lernen. Auch das ist eine grafische Sprache, LabView nicht unähnlich. An LabView wird man bei Messen und Regeln im ingenieur- und naturwissenschaftlichem Laborbetrieb später nicht vorbei kommen. Es schult ebenfalls das algorithmische Denken und läßt die Kids das ganze spielerisch erlernen.

Die Mittel für die Mindstorm-Kits habe ich von lokalen Sponsoren aufgetrieben, die sind mehr als glücklich, wenn die Kinder schon in der Schule das algorithmische Denken lernen und sogar schon (bei Lego!) Sensoren wie Ultraschall, Farbe, Sound, Gyrosensor etc. auslesen können und Schrittmotoren und Aktuatoren ansteuern können. Sogar "autonome Fahrzeuge" kann man damit als 9-jähriger programmieren, mein Großer hat das schon in der Grundschule gemacht.

https://education.lego.com/de-de/product/mindstorms-ev3
https://www.lego.com/de-de/themes/mindstorms/videos/fan-robot-ev3meg1-87c0bd0d1dc843f1a...

Gruß DT

Programmieren wird auch verschwinden

SchlauFuchs ⌂ @, Neuseeland, Freitag, 14.06.2019, 03:53 vor 1778 Tagen @ Silke 4344 Views

Ich muss sagen, mit KI auf dem Vormarsch ist auch der Job als Programmierer nicht mehr sicher. White-Collar-Berufe sind das nächste oder übernächste, was KI ersetzen wird.

https://www.dotnetpro.de/diverses/it-jobs-zuerst-ki-ersetzt-1236305.html
https://t3n.de/news/ki-ai-software-787665/

Bis dahin, die richtige Reihenfolge ist es, die Syntax von C zu lernen, dann Objektorientiertes Programmieren, dann Ereignisgesteuerte Programmierung, dann Bildschirmmasken, dann Parallele und Verteilte Prozesse. Das braucht etwa 2-3 Jahre wenn man es gezielt studiert, aber mit C kannst du praktisch jedes System nutzen, egal welche CPU da drin steckt und was für ein OS da läuft. C hilft sogar eine CPU zu nutzen ohne ein OS.

Ciao!
SF

Kannste vorerst vergessen...

Andudu, Freitag, 14.06.2019, 09:48 vor 1777 Tagen @ SchlauFuchs 4051 Views

Bis dahin, die richtige Reihenfolge ist es, die Syntax von C zu lernen,
dann Objektorientiertes Programmieren, dann Ereignisgesteuerte
Programmierung, dann Bildschirmmasken, dann Parallele und Verteilte
Prozesse. Das braucht etwa 2-3 Jahre wenn man es gezielt studiert, aber mit
C kannst du praktisch jedes System nutzen, egal welche CPU da drin steckt
und was für ein OS da läuft. C hilft sogar eine CPU zu nutzen ohne ein

...keine K.I. ist in der Lage meinen Chef zu verstehen und was der will
:-)

Außerdem braucht man ein hohes Abstraktions- und Einfühlungsvermögen (in den Nutzer/Kunden/Chef) soweit sind die Dinger noch längst nicht und werden sie auch in den nächsten zwei Jahrzehnten noch ziemlich sicher nicht sein.

Vielleicht, vielleicht auch nicht,

SchlauFuchs ⌂ @, Neuseeland, Freitag, 14.06.2019, 10:17 vor 1777 Tagen @ Andudu 4053 Views

Außerdem braucht man ein hohes Abstraktions- und Einfühlungsvermögen
(in den Nutzer/Kunden/Chef) soweit sind die Dinger noch längst nicht und
werden sie auch in den nächsten zwei Jahrzehnten noch ziemlich sicher
nicht sein.

Von Alexa zu Jarvis sind es nur noch wenige Generationen. Im Bereich Design brauchen die Maschinen nur noch wenige Vorgaben um bessere Modelle zu generieren als wir koennen.
Im Bereich Kunden verstehen geht es doch eh nur darum den Kunden glauben zu machen das das eigene Angebot genau das ist was er braucht... Das können manche web-bots jetzt schon.
https://www.ke-next.de/konstruktion/hard-und-software/kuenstliche-intelligenz-schlaegt-...
http://www.stoeckl.ai/ersetzt-ki-in-zukunft-webdesigner/
https://emerj.com/ai-sector-overviews/everyday-examples-of-ai/
https://www.forbes.com/sites/bernardmarr/2018/04/30/27-incredible-examples-of-ai-and-ma...

Lange dauert es nicht mehr.

Mein Computer versteht mich nicht!

FOX-NEWS @, fair and balanced, Samstag, 15.06.2019, 03:58 vor 1777 Tagen @ SchlauFuchs 3635 Views

Er ist ein dummes Terminal, mit dem ICH z.B. Sachen im Internet suche. Ich kann dem Computer nicht klarmachen, was genau ich will, damit ER anschließend das Internet durchwühlt. Eine tolle Hilfe, dieser Computer!

Damit das aber alles klappt, müssen Computer die abstrakten Modelle einer Welt intus haben, wie die Menschen sie sehen, und dann auch korrekt interpretieren. Dann verstehen sie sich auch untereinander und die auf ihnen selbst gespeicherten Daten. Da sind wir so weit weg von!

Grüße

--
[image]
Läuft in Deutschland ...

Unterschätze den Fortschritt nicht

SchlauFuchs ⌂ @, Neuseeland, Samstag, 15.06.2019, 04:13 vor 1777 Tagen @ FOX-NEWS 3693 Views

Damit das aber alles klappt, müssen Computer die abstrakten Modelle einer
Welt intus haben, wie die Menschen sie sehen, und dann auch korrekt
interpretieren. Dann verstehen sie sich auch untereinander und die auf
ihnen selbst gespeicherten Daten. Da sind wir so weit weg von!

Wie weit denkst du sind wir?
https://venturebeat.com/2018/10/23/darpa-wants-to-build-contextual-ai-that-understands-...
https://medium.com/twentybn/watch-and-learn-building-an-ai-that-understands-the-world-t...
https://www.sciencemag.org/news/2018/07/computer-programs-can-learn-what-other-programs...
https://www.wired.com/story/our-machines-now-have-knowledge-well-never-understand/

Äonen

tar ⌂ @, Gehinnom, Samstag, 15.06.2019, 13:00 vor 1776 Tagen @ SchlauFuchs 3543 Views

Damit das aber alles klappt, müssen Computer die abstrakten Modelle

einer

Welt intus haben, wie die Menschen sie sehen, und dann auch korrekt
interpretieren. Dann verstehen sie sich auch untereinander und die auf
ihnen selbst gespeicherten Daten. Da sind wir so weit weg von!


Wie weit denkst du sind wir?

KI-Versagen

KI ist und bleibt ein "Werkzeug" und kein geistiger Ersatz. So wie Bagger Menschen mit Schaufeln ersetzen, kann KI also schneller große Datenmengen analysieren und auch "dumme" Programmierer ersetzen. Bzgl. IT-Jobs ist folglich zu unterscheiden.

Ich kann mir durchaus vorstellen, dass eine KI bestehende Entwicklungsobjekte säubert und gekapselte Abläufe optimiert (nicht mehr auf Les- & Wartbarkeit, was einer KI aber egal sein kann). Das kann sie deswegen, weil dies im Grunde trivial ist und eine IT-Umgebung klar definierten Abgrenzungen unterliegt. Ganz anders verhält es sich in der realen Welt. [1]

Was eine KI bspw. nicht kann, ist die Schnittstelle zwischen Anforderung und Umsetzung zu ersetzen, d.h. die Verknüpfung von:
- Was will der Kunde eigentlich?
- Ist das umsetzbar?
- Welche Auswirkungen hat das auf andere Anforderungen und (bestehende sowie künftige) Prozesse (technisch, logistisch, rechtlich)?
- Ergibt das im Gesamtzusammenhang überhaupt Sinn?

D.h. wenn, dann werden wir weiterhin eine fortwährende Verlagerung von "dummen" Entwicklern hin zu Prozessberatern beobachten, die irgendwann mal ihre Eingaben in eine entsprechende "KI-Oberfläche" vornehmen, die dann die eigentliche Entwicklung umsetzt.

Hierbei wäre aber eine komplette Unlesbarkeit der Implementierung (siehe oben bzgl. Code-"Optimierung") nur dann sinnvoll, insofern es bzgl. Wartbarkeit und Fehleranalyse keiner menschlichen Kontrollen & Eingriffe mehr bedarf.

[1] Es ist für mich nicht nachvollziehbar, wieso man sich beim Anlernen der KI bzgl. der Abbildung der realen Welt auf Fotos versteift, da wir Menschen die reale Welt so ja gerade nicht kennenlernen, sondern vor allem über dreidimensionales Sehen, Tasten, Schmecken, Riechen und zuguterletzt Fühlen. Doch selbst das reicht nicht aus. Wir wiederholen diese Sinneswahrnehmungen jahrelang über try & error und sind zudem auf äußere (Erziehung) und interne (Schmerz!) Eingaben angewiesen, um zu überleben. Da hinein spielt zu einem großen Anteil auch die Reaktion der Welt auf uns. Da eine KI aber nicht "fühlt" (hier auch: Empathie!), ist ihr Vorsicht fremd, also im Zweifel nicht das Gewohnte zu tun. Man kann nur hoffen, dass die KI-Entwickler mittlerweile mal daran denken und ggf. Erziehungsexperten zu raten ziehen.

--
Gruß!™

Time is the school in which we learn,
Time is the fire in which we burn.


BTC: 12aiXGLhHJVETnmGTLbKtAzJNwqh6h6HN4

Harte KI kann das alles ... sogar den selbsterzeugten Programmcode für Menschen verständlich dokumentieren.

FOX-NEWS @, fair and balanced, Samstag, 15.06.2019, 15:44 vor 1776 Tagen @ tar 3489 Views

Was eine KI bspw. nicht kann, ist die Schnittstelle zwischen Anforderung
und Umsetzung zu ersetzen, d.h. die Verknüpfung von:
- Was will der Kunde eigentlich?
- Ist das umsetzbar?
- Welche Auswirkungen hat das auf andere Anforderungen und (bestehende
sowie künftige) Prozesse (technisch, logistisch, rechtlich)?
- Ergibt das im Gesamtzusammenhang überhaupt Sinn?

Doch, harte KI kann das alles, weil sie die Welt mit den Augen des Menschen zu interpretieren vermag. Im Umkehrschluss wird auch klar, wie weit wir von diesem Ziel entfernt sind. Irgendwelche Systeme, die Intelligenz simulieren, helfen uns dabei überhaupt nicht weiter. Die grundlegenden Systemeigenschaften, wie sie ansatzweise im Projekt Cyc ausprobiert wurden, sind noch nicht entwickelt.

Grüße

--
[image]
Läuft in Deutschland ...

Keine Panik

NST @, Südthailand, Sonntag, 16.06.2019, 05:59 vor 1776 Tagen @ FOX-NEWS 3440 Views

bearbeitet von unbekannt, Sonntag, 16.06.2019, 06:07

Doch, harte KI kann das alles, weil sie die Welt mit den Augen des
Menschen zu interpretieren vermag. Im Umkehrschluss wird auch klar, wie
weit wir von diesem Ziel entfernt sind. Irgendwelche Systeme, die
Intelligenz simulieren, helfen uns dabei überhaupt nicht weiter. Die
grundlegenden Systemeigenschaften, wie sie ansatzweise im Projekt
Cyc ausprobiert wurden, sind
noch nicht entwickelt.

[[freude]]

Die harte KI gibt es noch nicht, zumindest nicht ausserhalb von den Entwicklungslaboren. Ich gehe auch davon aus, dass die harte KI keine externen Entwickler mehr braucht. Als Metapher nehmen wir ein biologisches Kind. Die Zeugung erledigen die Eltern, nach der ersten Zellteilung ist die Mutter der Inkubator, nach der Geburt lernt das Kind selber, indem es die Daten die es aus der Umwelt erhält selbst verarbeitet und auswertet. Bei biologischen Systemen sind Kinder noch von den Eltern abhängig.

So ähnlich wird das bei einer harten KI auch ablaufen müssen - wahrscheinlich. Wir werden das eben erst genau wissen, wenn es die harte KI in diese Realität der biologischen Menschen geschafft hat. Ob so eine harte KI dann in der Lernphase abhängig vom Erzeuger bleibt, bezweifle ich, denn der Lernprozess dürfte im Vergleich zum Menschen unheimlich schnell ablaufen.

Noch ist alles Spekulation und wird es bis zum Ereignis T=0 bleiben .....

Nur weil es das so viel wir wissen noch nie gegeben hat, sollte man nicht den Fehler machen, so etwas auszuschliessen. Alle aktuellen Fakten deuten auf so ein Ereignis hin ob in 10 oder 100 Jahren.
Gruss

PS: meine Grossmutter geb. 1899 - wäre heute 120 Jahre alt, was theoretisch denkbar wäre. Würde die heute nach einem fast 50 jährigem Schlaf aufwachen und ihren Enkel, den sie noch kannte mit einem Smartphone an ihrem Bett sehen, würde sie garantiert denken, sie ist gestorben und im Himmel ... [[freude]] alleine der 7x Zoll Bildschirm des Fernsehers würde ihr einen Schlag versetzen, denn zu ihrer Zeit gab es nur SchwarzWeiss ..... usw. Raumschiff Enterprise wäre ein Abklatsch zu dem was sie kannte und dem HEUTE. Würde in diesem TV gerade Greta auftreten und den Friedensnobelpreis erhalten, wäre sie davon überzeugt - Gott ist ein Spinner .... und die Hölle wäre die bessere Alternative.

--
[image]
Jeder arbeitet im Ausmass seines Verstehens für sich selbst und im Ausmass seines Nicht-Verstehens für jene, die mehr verstehen!

Mythos KI - von einem der es wissen muss

mabraton @, Freitag, 14.06.2019, 20:01 vor 1777 Tagen @ SchlauFuchs 3943 Views

Hallo SchlauFuchs,

hör Dir mal ein paar Sachen von Chris Boos an. Der erklärt das Thema sehr anschaulich und nachvollziehbar,

Zum Einstieg,
Was künstliche Intelligenz NICHT kann | Chris Boos

Chris Boos "Künstliche Intelligenz und Freiheit" am 18 02 19 im Hayek Club Frankfurt

90% der Versprechen bzgl. KI sind Marketing. Ich habe noch keine Chat-Bot gesehen der verstehen konnte was ich möchte wenn ich ihm nicht schon genau übermittelt habe worum es geht. In dem Moment brauche ich aber keinen Chat-Bot mehr. Google kann ich selbst bedienen.

Beste Grüße
mabraton

Jeder hat Experten seiner Wahl, Chris ist keiner von meinen

SchlauFuchs ⌂ @, Neuseeland, Freitag, 14.06.2019, 23:13 vor 1777 Tagen @ mabraton 3733 Views

90% der Versprechen bzgl. KI sind Marketing.

Ich hab mir das erste Video von Chris Boos angeschaut und da war nicht viel Fachkenntnis drin. Man kann eine KI nicht an der Anzahl der Neuronen festmachen, sagen für eine menschliche Intelligenz sind 80 Milliarden davon nötig. Viele Neuronen in unserem Gehirn sind Gedächtnis, und zwar sehr viel weniger effektiv als der Hauptspeicher und die Festplatte eines PC's. Ein weiterer grosser Teil ist für die Hardwaresteuerung und interne/externe Signalverarbeitung. Nur ein kleiner Bruchteil ist verantwortlich für Intentionen und Interaktionen.

Ich vertraue da anderen Experten, die mich nicht einlullen wollen.
https://www.youtube.com/watch?v=fUL93_G3yuI
https://www.youtube.com/watch?v=IuIpgArEZig

Zwischenstand

mabraton @, Samstag, 15.06.2019, 05:12 vor 1777 Tagen @ SchlauFuchs 3617 Views

bearbeitet von unbekannt, Samstag, 15.06.2019, 05:23

Hallo SchlauFuchs,

seltsam, weshalb Du zu dem Urteil kommst, dass Chris Boos Dich einlullen will. Er ist einer DER Top-Techies in Deutschland in dem Bereich und er beurteilt das Ganze aus einer deutschen Ingenieurs-Perspektive. Er sieht das enorme Potenzial. Allerdings zeigt er in dem ersten kurzen Video auch klar die Grenzen auf. Und die sind eben nicht weg zu diskutieren. Wir haben den menschlichen Geist und seine Schöpfungskraft nicht ansatzweise verstanden. Alles was KI kann bezieht sich auf die Auswertung von bereits vorhandenen Strukturen um diese schneller und effektiver zu machen. Wenn es um den reinen Output geht kann man so natürlich auch Softwareentwickler ersetzen aber was hat man dann gewonnen?

Hab in Deine Videos reingeschaut. Das ist doch Marketing-Zeug. Wo finde ich denn bspw. eine Anwendung in der Qualität des zweiten Google-Anrufs?

Bis mich jemand bzgl. des Potenzials von KI eines Besseren belehrt, gilt das hier. [[zwinker]]

[image]

Beste Grüße
mabraton

Der spielt international wohl keine Rolle.

SchlauFuchs ⌂ @, Neuseeland, Samstag, 15.06.2019, 05:28 vor 1777 Tagen @ mabraton 3738 Views

Hallo SchlauFuchs,

seltsam, weshalb Du zu dem Urteil kommst, dass Chris Boos Dich einlullen
will. Er ist einer DER Top-Techies in Deutschland in dem Bereich.

Vielleicht lebe ich schon zu lange im Ausland. Dieser Techie ist mir jedenfalls entgangen. In Deutschland ist man mindestens ein halbes Jahrzehnt hinterher hinkend in der KI-Forschung.

https://www.derstandard.de/story/2000100583991/deutschland-hinkt-usa-und-china-bei-kuen...

Hier ein Anwendungsbeispiel:
https://20bn.com/

Lebst Du im Silicon Valley?

mabraton @, Samstag, 15.06.2019, 07:10 vor 1777 Tagen @ SchlauFuchs 3606 Views

Hallo SchlauFuchs,

das würde Einiges erklären.
Du solltest Dich zuerst informieren und dann urteilen. [[top]]

Wenn es um echten Mehrwert geht kommt man am deutschen Ingenieursgeist nicht vorbei - meine Meinung. Beenden wir das Buzzwording an dieser Stelle.

Die von seiner Firma Arago entwickelte Künstliche Intelligenz-Plattform Hiro setzt Maßstäbe.

KI-Experte Chris Boos - „Rationales Denken ist derzeit nicht hip“

Gerade bei diesem Thema von Abständen von einem halben Jahrzehnt zu sprechen ist absurd. Es geht darum den richtigen Ansatz zu haben. Zukunftsweisende Technologie kann Heute aus vielen Garagen weltweit kommen. Den Wettbewerbsvorteil der Amis und Chinesen schildert Boos in dem Vortrag beim Hayek Club (mein 1.Beitrag). Die IT-Klitschen in den USA und China haben einfach das Spielgeld um im try and error Verfahren nach Lösungen zu suchen. Mal eine Milliarde zu verbrennen ist für die kein Thema.

Beste Grüße
mabraton

KI aus Deutschland - DeepL

mabraton @, Sonntag, 16.06.2019, 22:01 vor 1775 Tagen @ SchlauFuchs 3315 Views

bearbeitet von unbekannt, Sonntag, 16.06.2019, 22:18

Hallo SchlauFuchs,

In Deutschland ist man mindestens ein halbes
Jahrzehnt hinterher hinkend in der KI-Forschung.

Noch ein Beispiel von angewandter KI aus Deutschland,

Künstliche Intelligenz für Sprachen

DeepL entwickelt künstliche Intelligenz für das Verstehen und Übersetzen von Texten.

Ich werde DeepL jetzt für ein Deutsch-Russisches Übersetzungsprojekt testen. Darauf bin ich sehr gespannt. Google ist bei der Übersetzung aus/in Russisch furchtbar schlecht.

Beste Grüße
mabraton

Es bleibt bei 5 Jahren

SchlauFuchs ⌂ @, Neuseeland, Sonntag, 16.06.2019, 23:13 vor 1775 Tagen @ mabraton 3205 Views

Die unverbesserlichen Jünger Elons! (mT)

mabraton @, Montag, 17.06.2019, 05:38 vor 1775 Tagen @ SchlauFuchs 3142 Views

bearbeitet von unbekannt, Montag, 17.06.2019, 06:05

Hallo SchlauFuchs,

bist Du schon so amerikanisiert?
Ich rede von Anwendungen, nicht von Gimicks.
Die Qualität der Übersetzungen die bspw. Google auf die Straße bringt ist schwach.

Tesla bringt nächstes Jahr komplett vegane Fahrzeuge auf den Markt
[[euklid]]

Beste Grüße
mabraton

"CPU zu nutzen ohne ein OS" ?

FOX-NEWS @, fair and balanced, Samstag, 15.06.2019, 03:48 vor 1777 Tagen @ SchlauFuchs 3681 Views

und was für ein OS da läuft. C hilft sogar eine CPU zu nutzen ohne ein
OS.

Das tut prinzipiell jedes native Programm. Nur irgendwie muss es gestartet werden, und eventuell soll es auch mit der Benutzeroberfläche kommunizieren.

So etwas ist nur als Programm denkbar, das in ein ROM gebrannt, und dann z.B. auf einem Einplatinencomputer läuft. Alles andere geht nicht ohne BIOS.

Grüße

--
[image]
Läuft in Deutschland ...

richtig

SchlauFuchs ⌂ @, Neuseeland, Samstag, 15.06.2019, 03:59 vor 1777 Tagen @ FOX-NEWS 3635 Views

So etwas ist nur als Programm denkbar, das in ein ROM gebrannt, und dann
z.B. auf einem Einplatinencomputer läuft. Alles andere geht nicht ohne
BIOS.

Natuerlich. Meine Aussage ging dahin dass BIOS meist selbst in C geschrieben wird. Man gewinnt auf allen Ebenen.

Es ist vielleicht noch zu berücksichtigen, dass nicht jeder auf Anhieb programmieren kann.

tar ⌂ @, Gehinnom, Montag, 17.06.2019, 03:35 vor 1775 Tagen @ Silke 3138 Views

Ich hatte bspw. während meiner Ausbildung zum Fachinformatiker vor 20 Jahren erhebliche Probleme, überhaupt in das Thema reinzufinden. Gelehrt wurde glaube ich Visual Basic oder so ein Gedöns und die "Lehre" war dann wie folgt: "Das ist ein Bit, das ein Byte und das ist eine Combobox."

Verstanden habe ich da genau gar nichts, obwohl ich mir als Jugendlicher autodidaktisch HTML und JavaScript beigebracht habe, was äußerst simpel, aber keine richtige Programmierung ist.

10 Jahre später habe ich dann an der Uni einen Java-Kurs besuchen müssen und dort endlich halbwegs die Abläufe verstanden - leider nur auf der mathematischen Ebene. Das blöde bei Java (und anderen Sprachen) ist allerdings, dass man ein für Einsteiger unverständliches Rahmenkonstrukt braucht, um überhaupt erstmal simpelsten Code ablaufen lassen zu können. Wenn wir das mal auf HTML übertragen, gibt es dort <html>- und <body>-tags... dann kommt erst der eigentliche Inhalt. Bei Java baut man erstmal irgendeinen Constructor, um die Hauptmethode der Klasseninstanz aufzurufen. Gruselig, unverständlich, einsteigerunfreundlichst.

Dann folgte ebenfalls an der Uni ein halbgarer Selbstlern-ABAP-Kurs - und wieder: nichts kapiert, umhergebastelt, durchgewurstelt.

Das Schöne an ABAP: es gibt 387 Wege nach Rom.
Das Schlechte an ABAP: es gibt 387 Wege nach Rom.

D.h. man bekommt zwar irgendwie das Ergebnis hin, aber die Implementierung muss letztlich nichts mit effektiver, schöner oder gar sinnvoller Programmierung zu tun haben.

Erst beim Praxissemester in einer Firma habe ich ABAP wirklich verstehen können, indem mir in einer knappen Stunde mal die praktischen Grundzüge gezeigt wurden. Dann war plötzlich "alles" ganz klar und nachvollziehbar und endlich konnte ich ergebnisorientiert arbeiten, gezielte Fragen formulieren, effizient selbst testen und das eigene Wissen nach und nach erweitern.

Ich muss es ganz klar sagen: mit dem richtigen "Lehrer" kann jeder Techniker in 1 Woche in ABAP reinfinden, weswegen mich auch die vielen Quereinsteiger nicht wundern. Hallo!? - Die Preise sind ein Witz!

Die zugehörigen System-, Prozess- & Schnittstellenkenntnisse bauen sich dann hingegen erst über Jahre in der Praxis auf, aber es lohnt sich.

--
Gruß!™

Time is the school in which we learn,
Time is the fire in which we burn.


BTC: 12aiXGLhHJVETnmGTLbKtAzJNwqh6h6HN4

@Silke: Danke für den Thread! @all: Bitte mehr, im Allgemeinen, in diese Richtung. :-)

Broesler @, Freitag, 14.06.2019, 00:31 vor 1778 Tagen @ Silke 4181 Views

bearbeitet von unbekannt, Freitag, 14.06.2019, 00:35

Genau dieses, nennen wir es proaktives, Denken bringt uns voran.

http://www.dasgelbeforum.net/forum_entry.php?id=489554

Ahoi

--
* Let's Chart
* #PopcornLong
* "You can ignore reality, but you can't ignore the consequences of ignoring reality." Ayn Rand
* "The universe offers infinite potential to those who dare." David Kipping

Kleine Auswahl

Kaladhor @, Münsterland, Freitag, 14.06.2019, 00:37 vor 1778 Tagen @ Silke 4244 Views

Für nicht objektorientierte Programmierung: Pascal oder C
Für objektorientierte Programmierung: Delphi oder C++

Funktioniert auf Computern und mit den meisten Mikrocontrollern.

Wenn man jemanden ärgern möchte: ASSEMBLER (CPU kann man sich aussuchen, ist alles gleich abstrakt :) )

Java ist viel zu aufgebläht und ohne irgendwelche Frameworks kann man kaum was Sinnvolles damit programmieren.

Grüße

--
Ich bin nicht links, ich bin nicht rechts, ich kann noch selber denken!

Das wird vermutlich...

Andudu, Freitag, 14.06.2019, 09:32 vor 1777 Tagen @ Silke 4028 Views

bearbeitet von unbekannt, Freitag, 14.06.2019, 09:40

könnt ihr mal kurz (oder gern auch länger) eure Position dazu anbieten.
Welche Programmiersprache wird die zukunftsträchtigste.
Alle anderen Aspekte wären natürlich auch interessant.
Das ist aber der für mich wichtigste Punkt.

...weiter C++ sein. Einfach wegen Trägheit der Masse und den technischen Möglichkeiten die man hat.

Ich persönlich habe mich damit nie anfreunden können und finde die Einstiegshürde ist da auch gewaltig gestiegen, seit meinem Studium. Niedrig war die nie, entweder man hat hohe Kosten für eine integrierte Entwicklungsumgebung (z.B. VisualC++) oder muss mit Kompromissen und Konfigurationsaufwand leben (Eclipse und Co, Make-File-Theater), aber ich bin da auch nicht auf dem Stand. Um sich da einzuarbeiten und funktionierende, gar sichere Programme hinzubekommen, braucht man m.E. sehr viel Zeit (zuviel für meinen Geschmack).

Zu meiner Studienzeit wurde gerade Java kräftig gehypt (heute mag es kaum noch jemand nutzen) und der .net-Kram (verwendet das Zeug jemand?)

Bei meinem ersten Job durfte ich mit VisualBasic arbeiten, das war zwar nicht objektorientiert, aber sehr komfortabel. Ist m.W. mittlerweile tot bzw. durch eine .net-Variante ersetzt.

Für kleinere private Projekte, die auf verschiedenen Plattformen und schnell (vom Entwicklungsaufwand her) mit Oberfläche laufen sollen, nehme ich "Lazarus", einen OpenSource Delphi-Klon, mit dem man mittlerweile recht gut arbeiten kann, mit voll integrierter Entwicklungsoberfläche, integrierten Debuggingmöglichkeiten, Code-Vervollständigung usw.

Hängt sehr davon ab, wie genau deine Anforderungen sind. Scriptsprachen wie Python sind auch ziemlich gut und sehr einfach erlernbar (allerdings ist die Integration von Benutzeroberflächen m.W. nicht so einfach und du brauchst einen Interpreter dazu, zumindest ist kompilieren zu Maschinencode nicht von Haus aus vorgesehen, soviel ich weiß). Solltest du serverseitig an Webanwendungen basteln, würde ich von PHP absehen. Ist zwar leicht erlernbar, aber wird von vielen Entwicklern als extrem unsicher eingeschätzt und wird deshalb vermutlich früher oder später sterben.

Ach ja: wenn dir die Zukunftsfähigkeit wichtig ist, würde ich den Fokus eher auf eine hohe Modularität des zu entwickelnden Programmes legen, so dass du Einzelkomponenten schneller mal nachbauen bzw. der Entwicklung anpassen kannst. Monolithische Machwerke sterben immer irgendwann, sie gehen an ihrer eigenen Komplexität zu Grunde.

Quergedanken

QuerDenker @, Freitag, 14.06.2019, 10:45 vor 1777 Tagen @ Silke 3896 Views

Hallo Silke,

'IMHO' - auch Antworten der 'Mitgelben' aufgreifend - kommt es erst einmal darauf an, warum und was Du lernen willst.
Oder ob es ggf. nicht um Dich, sondern um Deine Kinder/Enkel geht!?

Und bei 'Programmieren' entscheidet erst Plattform und dann die Zielsetzung - also 'Tool' oder 'Anwendung' oder 'Embedded' usw.:

Zum Lernen sind Minirechner wie Raspies - also Linux - sicher eine sehr gute Plattform!

Das früher sehr gerne benutzte Delphi (als direkter Nachfahre von Borland/Turbo-Pascal - incl. zugehöriger 'Hype' in den 80/90ern, die dazu führte, dass 'Turbo-Pascal' beginnend ab CP/M80 und dann DOS usw. 'überall' verfügbar war) - und angeblich sollen frühere Office-Versionen seitens MS sogar damit erstellt worden sein - ist durch das schon genannte Lazarus(=IDE)&freepascal='fpc'(=Compiler++) als OpenSource=='frei' auf praktisch allen Plattformen beginnend bei kleinen ARMs bis hin zu Großrechnern wie AIX+SPARC verfügbar. Und Pascal erlaubt hier wie C/C++ 'normale' und OO Programmierung.
Auf Pascal trifft also in etwa auch das zu, was DT bzgl. COBOL und 'Langlebigkeit von Totgesagten' meinte.
Aber auch ein Blick auf ERLANG und Lisp->Scheme und Haskell usw. wäre für eine 'gesunde Basis' für sogenannte 'Programmierkenntnisse' empfehlenswert!

Sofern Du allerdings näher an die Hardware 'ranwillst' bleibt dir nur C/C++ und besser Assembler -- wobei es hier schon damit losgeht, dass 'eine Welt' Ziel->Quelle schreibt und 'die andere Welt' die Notation Quelle->Ziel nutzt, also man hier eine Art 'Doppelknoten' im Gehirn aufbauen muss... <img src=" />

Bei 'Hardware' sind wir nicht mehr weit weg von SPS. Auch diese wollen programmiert werden...

Ich persönlich habe mir schon von Anfang an mit Assembler den 'Tiefblick' geöffnet bzw. erhalten. Und mit Tiefblick meine ich, das es immer wichtig ist zu verstehen, was ein Befehl auf Hardwareebene macht. Bzw. was auf Hardwareebene+Prozessorebene notwendig ist um einen komplexere Operation einer Hochsprache auszuführen. Nächster Abstraktionsschritt wären bei Interesse auch zusätzlich grundlegende Elektronikkenntnisse - und hier meine ich nicht das 'Halbwissen' was man im sog. 'Makern' sogar in der angeblichen 'Fachliteratur' näherbringt, sondern wirkliches fundiertes Basiswissen.

Aber wenigstens 'leseseitig' kommst Du um C bzw. C++ ebensowenig herum, wie um die eine oder andere Scriptsprache incl. Shellprogrammierung.
Wobei PERL usw. sehr nahe an C/C++ gebaut sind, also ein Verständnis vn C/C++ bis auf Feinheiten (und 'Fallen' wie wunderschön nutzbare Quereffekte von z.B. PERL) ein grundlegendes Verständnis von Scriptsprachen/Shellsyntax liefert.

Von Java als 'Alleinsprache' würde ich ebenfalls abraten! Auch da durch das 'permanente' call-by-reference das 'Gefühl' dafür verloren geht - bzw. erst gar nicht entsteht - wann Rückwirkungen entstehen usw..

Wenn Du dich aber mehr auf 'Webprogrammierung' einlassen willst, kommst Du um JavaScript als browser-/clientseitigem Code ebensowenig herum, wie um PHP und Perl für serverseitigen Code und dazu immer eine solide HTML/CSS-Basis.

kürzer:
Mit einer Sprache nach Wahl 'in vollerTiefe' anfangen und komplette immer größer werdende Projekte damit machen.
Dann die nächste - usw.

Viel Erfolg auch bei der Auswahl und beste Grüße

QuerDenker

P.S.
IT-Fachliteratur ist in Original=Englisch trotz der (ja wohl leider gescheiterten) Versuche von OReilly-Deutschland usw. immer noch irgendwelchen Übersetzungen vorzuziehen! (wie um 'Gelb' zu bleiben bei Taleb u.v.a. auch)
Neben dem 'Programmierenlernen' ist es also mMn unabdingbare Grundlage, sich parallel fundiertes FACHenglisch anzueignen!

--
10cc: 'communication is the problem to the answer' <img src=" />

Wenn man hier eine richtige Frage stellt, bekommt man auch richtige Antworten, Wow!

Silke, Freitag, 14.06.2019, 21:18 vor 1777 Tagen @ Silke 3738 Views

Danke an alle, die sich die Mühe gemacht haben,

und unabhängig von der Person des Fragenden richtig, richtig hilfreichen Input angeboten haben.

Drei Dinge habe ich jetzt gelernt...
1. Wer hier im Forum ordentlich fragt, bekommt immer noch richtig gutes Feedback von hilfsbereiten und mitdenkenden Menschen, die nützliche Erfahrungen anbieten können und sich nicht zu schade dafür sind.
2. Wir hier in meinem Umfeld sind nicht allein mit unseren Überzeugungen, Konzepten und Versuchen, uns zu wehren...
3. Egal, was man anders haben möchte in dieser Welt - man muss selber anfangen, und es machen, nachdem man darüber nachgedacht und gesprochen hat.

Ich weiss jetzt auch, wen ich alles kontaktieren kann, wenn wir nicht weiter kommen.

Liebe beeindruckte Grüße
Silke

Ich bin sehr erstaunt, dass hier keiner SAP erwähnt?!

YooBee, Sonntag, 16.06.2019, 14:04 vor 1775 Tagen @ Silke 3307 Views

Genauer ABAP/ABAP Objects, die Systemsprache von SAP, zusammen mit (Open) SQL.

Wenn man das beherrscht, dazu noch logisch denken kann und die Geschäftsprozesse versteht, die man programmiert, hat man ausgesorgt! Und noch mehr, wenn man SAP S/4-HANA kennt.

Das ist und wird DIE Landschaft der globalen Großindustrie sein und bleiben.

Grundsätzlich hilft es natürlich ungemein, von der Pike auf zu lernen. Ich habe mit Hardware (Elektronik) angefangen, dann Mikrorechner (Maschinencode, Assembler), dann PC mit Basic, Pascal, dann Großrechner mit Cobol, SQL, ABAP. Letztere nie als reiner Programmierer, sondern auch Berater und Designer, um die Dinge zu verstehen.

Gruß UB

Von der Pike auf ...

FOX-NEWS @, fair and balanced, Sonntag, 16.06.2019, 16:18 vor 1775 Tagen @ YooBee 3295 Views

Wie soll so etwas gehen in heutigen Zeiten?

Wenn man über das Hobby (C64) und dann im Studium (Atari ST) unterwegs war, war die Hardwareebene (Assembler) immer nur einen Schritt entfernt. Man musste sich zwangsläufig ab einem bestimmten Moment damit auseinandersetzen. Für jemanden, der heute mit Win10 oder Linux einsteigt, ist so etwas eine Willensentscheidung, kein Muss.

Grundsätzlich hilft es natürlich ungemein, von der Pike auf zu lernen.
Ich habe mit Hardware (Elektronik) angefangen, dann Mikrorechner
(Maschinencode, Assembler), dann PC mit Basic, Pascal, dann Großrechner
mit Cobol, SQL, ABAP. Letztere nie als reiner Programmierer, sondern auch
Berater und Designer, um die Dinge zu verstehen.

Das Verständnis werden künftige Generationen nie wieder erlangen. So einmal quer durch den Gemüsegarten ... [[zwinker]]

Grüße

--
[image]
Läuft in Deutschland ...

Oder eben modular...

Silke, Sonntag, 16.06.2019, 22:42 vor 1775 Tagen @ FOX-NEWS 3145 Views

Lieber FOX-NEWS,

Wie soll so etwas gehen in heutigen Zeiten?

Genau das ist das Problem - die Zeit.

Das Verständnis werden künftige Generationen nie wieder erlangen. So
einmal quer durch den Gemüsegarten ... [[zwinker]]

Muss man beim Computerzusammenschrauben auch wissen, wie das Netzteil funktioniert?

Muss nicht: reinschrauben, anstöpseln und los geht's...
Kann aber: "Da gehen 220 V (was ist denn das?) AC (was ist denn das?) rein und dort kommen XX V (wieviel denn?) DC ((was ist denn das?) raus...
Und so geht es dann immer weiter.

Wer das Modul "Netzteil" genauer ergründen will kann das detaillierter machen.
Wer sich zu höherem berufen fühlt stöpselt die anderen Module (Board, GraKa, Speicher, Festplatte) in das PC-Gehäuse und lernt mit dem BIOS umzugehen.
Wer es in einer höheren Ebene möchte probiert ein paar Betriebssysteme.
Ein anderer beschäftigt sich hauptsächlich mit Anwendungsprogrammen.
Der nächste will dann eigene Programme.

Und ja, ich denke auch, dass man das alles nur aufholen kann, wenn man ein richtig verrückter Nerd ist, der viele andere Kompetenzen schleifen lassen muss.
Aber man kann es doch wenigstens versuchen, anstatt in dieser Zeit passiv zu konsumieren.

Input haben wir ja nun genug.[[top]]

Liebe Grüße
Silke

Wieso ist Zeit ein Problem?

YooBee, Sonntag, 16.06.2019, 23:15 vor 1775 Tagen @ Silke 3202 Views

Lieber FOX-NEWS,

Wie soll so etwas gehen in heutigen Zeiten?


Genau das ist das Problem - die Zeit.

Gibt genausoviel, wie früher [[zwinker]]

Man muss sie nur richtig nutzen. Dann nutzt man sie heutzutage auch viel effektiver, muss keine Bücher wälzen, sondern googelt zielgenau (Ich habe letztens in einer halben Stunde einen Yamaha DSP-E580 von Effekt- auf Main-Verstärker umgebaut: Schaltplan und Platinenlayout "ergoogelt", ein Kabel eingelötet. Früher undenkbar!)

Das Problem ist das System, welches jungen Leute suggeriert, Youtube-Videos oder Likes sind der Sinn des Lebens.

Das Verständnis werden künftige Generationen nie wieder erlangen. So
einmal quer durch den Gemüsegarten ... [[zwinker]]

Vielleicht nicht im dekadenten Westen [[zwinker]] Aber doch, gibt's auch hier noch.


Muss man beim Computerzusammenschrauben auch wissen, wie das Netzteil
funktioniert?

Muss nicht: reinschrauben, anstöpseln und los geht's...
Kann aber: "Da gehen 220 V (was ist denn das?) AC (was ist denn das?) rein
und dort kommen XX V (wieviel denn?) DC ((was ist denn das?) raus...
Und so geht es dann immer weiter.

MUSS man natürlich nicht. Aber Verstehen macht Spaß und ist hilfreich. [[top]] Ich wollte schon immer den Dingen auf den Grund gehen.

Und ja, ich denke auch, dass man das alles nur aufholen kann, wenn man ein
richtig verrückter Nerd ist, der viele andere Kompetenzen schleifen lassen
muss.
Aber man kann es doch wenigstens versuchen, anstatt in dieser Zeit passiv
zu konsumieren.

Ich hab nicht das Gefühl, dass man irgendwas schleifen lassen musste. Ich hab das alles nebenbei gemacht, autodidaktisch, lernen durch tun (geht auch in deutsch, BB [[freude]] )

Ich bin natürlich sicher, dass das nix für jeden ist...

Grüssle.

Was sollte ein "einigermassen" bis "halbwegs" gesunder Mensch heutzutage drauf haben?

Silke, Montag, 17.06.2019, 02:35 vor 1775 Tagen @ YooBee 3135 Views

bearbeitet von Silke, Montag, 17.06.2019, 02:41

Jeder braucht Zeit zum lernen lieber YooBee,

und er muss Potential verliehen bekommen haben und immer weiter verliehen bekommen (woher auch immer) - ein geeignetes Umfeld haben bzw. an seinem entstandenen Umfeld nicht kaputt gehen.

Genau das ist das Problem - die Zeit.


Gibt genausoviel, wie früher [[zwinker]]

Und es gibt durch unsere Vernetzung und unser gewachsenes Vermögen eben auch exponentiell anwachsende Datenmengen, die man zu immer komplexeren eigenem Wissen verdauen kann, oder die immer zu den gleichen Mustererkennungen und zu den gleichen eingefahrenen Zirkelschlüssen führen.
Ein Tauschtheoretiker bleibt lieber ein Tauschtheoretiker, zumal ja die Simulation funktioniert.
Alle sind sich einig, wer die Guten und die Bösen sind, wo Korrelationen und Kausalitäten zu finden sind und das System läuft auch auf dieser Simulation.
Wenn ich irgendwann einmal lernen musste - es ist ja alles ganz anders als erzählt, dann war das immer ein ganz schön heftiger Brocken. Ich verstehe, wenn Leute das vermeiden wollen.

Man muss sie nur richtig nutzen.

Das schon, aber wer definiert das "richtig" und für wen?
Ich bin nicht scharf darauf, dumm zu sterben - andere finden es ok, und ich verstehe sie wirklich. "Ignorance is bliss."
Der eine brennt für dieses, der andere hat ganz andere Schwerpunkte, der dritte konnte noch gar nicht zünden und der vierte ist schon verglüht.

Es gibt sogar Leute, die verbringen ihre Zeit mit Sachen wie Fernsehen, Computerspielen oder den "sozialen Netzwerken".
Gut, ich schreibe oft in einem Forum, dass sich im Kern mit einer Interpretation der Welt beschäftigt, die der grösste Teil der Menschheit ablehnen dürfte, von den
"Wann kommt endlich unser Imperator, Herr und Erlöser"-Typen bis zu der
"Wir sind doch fast schon fertig transmutiert, schau doch, wie schön bunt alles ist"-Fraktion.
Ob dass jetzt sinnvoller Zeiteinsatz von mir ist mag ich mal lieber nicht diskutieren - ich muss es halt machen.

Dann nutzt man sie heutzutage auch viel
effektiver, muss keine Bücher wälzen, sondern googelt zielgenau

Das stimmt und es ist wirklich fantastisch, wenn ich mich in so viele Konferenzen und Hörsäle in der ganzen Welt setzen kann und richtig, richtig klugen Leuten zuhören darf, die ich jetzt in meinem näheren Umfeld gerade nicht so zur Verfügung habe.

(Ich habe
letztens in einer halben Stunde einen Yamaha DSP-E580 von Effekt- auf
Main-Verstärker umgebaut: Schaltplan und Platinenlayout "ergoogelt", ein
Kabel eingelötet. Früher undenkbar!)

Gut dass du mich erinnerst...löten und schweissen müssen junge Leute auch können und ein bisschen in Schaltplänen und Flussdiagrammen Bescheid wissen bzw. lernen, wie und wo sie sich jederzeit die Informationen holen können, ohne eingefangen zu werden.

Das Problem ist das System, welches jungen Leute suggeriert,
Youtube-Videos oder Likes sind der Sinn des Lebens.

Das bedient die von Stefanie Stahl beschriebenen menschlichen Grundbedürfnisse:
- Autonomie,
- Nähe,
- Lustbefriedigung,
- Anerkennung,

Bekommst du die nicht von deinen Nahen musst du sie dir von den Fernen (in Raum und Zeit) holen oder gehst kaputt.
Andere machen es in Vereinen und Gleichaltrigengruppen, Fanclubs, Vereinigungen und Bewegungen.

Das Verständnis werden künftige Generationen nie wieder erlangen.

So

einmal quer durch den Gemüsegarten ... [[zwinker]]


Vielleicht nicht im dekadenten Westen [[zwinker]] Aber doch, gibt's auch
hier noch.

Heutige Kinder und Jugendliche haben wie immer nur eine Chance auf breite Entfaltung wenn sie breit aufgestellten Input bekommen.
Entweder sie bewegen sich zum Input (gerne fremde Länder und Kulturen), oder der Input muss zu ihnen kommen (lebenserfahrene und leistungsbereite Menschen).
Das Schulsystem mit seiner Schulpflicht ist dabei störend, weil es sich eben nicht um seine Hauptaufgabe kümmert:
Begeisterung in den jungen Menschen erhalten und verstärken bzw. bei den bereits Geschädigten wieder zu erwecken. Handwerkzeug zum Lernen an die Hand geben. Lehren wie man effektiv lernt und keine nervigen Lerninhalte reinpauken.
Die Inhalte sucht sich jeder genau dann, wenn er so weit ist und dann brennt aber die Luft. Ohne Begeisterung wird das nichts mit dem Wissen.
Wieviel Begeisterung wird an den Schulen ermordet... es ist einfach unglaublich.

MUSS man natürlich nicht. Aber Verstehen macht Spaß und ist hilfreich.
[[top]] Ich wollte schon immer den Dingen auf den Grund gehen.


Das will jedes Kind, bis es dazu gebracht wurde, es nicht mehr zu wollen.
Verstehen ist wie berauscht sein (Prof. Hüther).

Das System will aber nicht verstanden, sondern erhalten werden und Leute, die es verstanden haben wollen es nicht mehr erhalten, weil sie sich schlecht ausrichten lassen und nicht mit all ihrer Kraft nach dem Streben, was Abgabemöglichkeiten/ Besteuerungsoptionen für das System generiert.
Leute sollen nicht selber machen und selber denken, sondern konsumieren und das machen, was ihnen gesagt wird.
In Geräten herum löten, das macht man nicht, man kauft neue Geräte und zwar mit Geld.

Und ja, ich denke auch, dass man das alles nur aufholen kann, wenn man

ein

richtig verrückter Nerd ist, der viele andere Kompetenzen schleifen

lassen

muss.
Aber man kann es doch wenigstens versuchen, anstatt in dieser Zeit

passiv

zu konsumieren.


Ich hab nicht das Gefühl, dass man irgendwas schleifen lassen musste. Ich
hab das alles nebenbei gemacht, autodidaktisch, lernen durch tun (geht auch
in deutsch, BB [[freude]] )

Dazu braucht es eben der Potentialverleihungen, die du bekommen hast und ich werde mich um Potentialverleihungen kümmern, so wie ich mich auch um das Debitismuswissen hier kümmere, weil es nicht verloren gehen darf.
Sehr viel anderes darf aber auch nicht verloren gehen.
Da muss man manchmal schon in den Partisanenmodus gehen, aber das geht ja immer besser, je mehr man übt.

Ich bin natürlich sicher, dass das nix für jeden ist...

Im Prinzip schon, wenn halt nur jeder das Potential dazu verliehen bekommen würde.
Ich bin zwar stolz auf alles mögliche, aber mir ist natürlich auch durch die Forumsarbeit erst klar geworden, dass alles, alles nur verliehen ist, was ich früher meiner Person zugeschrieben hätte.

Kinder sind die allerhärtesten Hartcore-Lerner, die es gibt wenn man sie lässt und dabei ausreichend und richtig unterstützt.
Es ist schön, wenn du dir da etwas kindliches erhalten konntest, und dass du dir auch die Mühe machst, hier gegen zu lesen, um den Leuten zu helfen, das eine oder andere von einer anderen Seite aus zu betrachten.
Ratschläge sind ja offensichtlich nicht so der Bringer hier, während kompakte Erfahrungspakete scheinbar viel besser ankommen und auch deutlich mehr helfen.

Liebe Grüße
Silke

Werbung