NEU
Proxify is bringing transparency to tech team performance based on research conducted at Stanford. An industry first, built for engineering leaders.
Learn more
Biran Y.
Machine Learning Engineer
Biran ist ein Maschinenbauingenieur mit mehr als acht Jahren kommerzieller Erfahrung. Sie ist hochqualifiziert in Python, Google Cloud Plattform, Scikit-learnn und Pandas, und liefert auf datengestützte Innovationen basierende, skalierbare, unternehmensorientierte KI-Lösungen.
Eine ihrer herausragenden Leistungen ist die Entwicklung interner AI-Agenten, die natürliche Sprachabfragen interpretieren und komplexe Datenanalysen durchführen. Diese Initiative verwandelt die Art und Weise, wie nicht-technische Stakeholder auf Einsichten zugreifen, die Entscheidungsfindung beschleunigen und die Arbeitsbelastung für technische Teams verringern, indem sie Kommunikationslücken zwischen den Abteilungen überbrückt.
Biran entwickelt und liefert schlagkräftige KI-Systeme, die Unternehmen in die Lage versetzen, ihre Intelligenz im Maßstab zu nutzen.
Hauptkompetenz
- Google Cloud 5 Jahre
- MLOps 3 Jahre
- Python 8 Jahre

Andere Fähigkeiten
- Bash 5 Jahre

- Docker 3 Jahre
- Microservices 3 Jahre
Ausgewählte Erfahrung
Beschäftigung
Machine Learning Engineer
beIN Media/Digiturk - 1 jahr 5 monate
- Entwirft und implementiert interne KI-Agenten, die in der Lage sind, natürliche Sprachabfragen zu interpretieren und komplexe Datenanalyseaufgaben selbständig durchzuführen.
- Führt die Entwicklung und den Einsatz von Services auf Google Cloud Plattform (GCP), um Skalierbarkeit, Sicherheit und hohe Verfügbarkeit zu gewährleisten.
- Erstellt und wartet Kirchen-Vorhersagemodelle mit großen Datenbeständen, Anwendung des Maschinenlernens und großer Datentechnologien, um schlagkräftige Einsichten zu liefern.
- Entwickelt und integriert Looker Explore Assistant Erweiterungen, verbessert die Benutzererfahrung und ermöglicht eine intuitivere Erkundung von Daten durch natürliche Sprachschnittstellen.
- Sicherstellung der Einhaltung interner Standards zur Datenverwaltung und externer Datenschutzbestimmungen bei der Verwaltung sensibler Informationen.
- Optimiert kontinuierlich die Leistung von AI Agenten durch die Durchführung von Experimenten, Tuning-Modellen und Überwachung von Produktionsmetriken.
Technologien:
- Technologien:
Python
SQL
Terraform
BigQuery
OpenAI API
LangChain
ChromaDB
Looker
Ollama
LlamaIndex
Machine Learning Engineer
Monk.io - 11 monate
- Entworfene und implementierte Retrieval-Augmented Generation (RAG) Pipelines zugeschnitten auf arbeitsspezifische Large Language Models (LLMs) und verbessert die Domänenrelevanz und Genauigkeit.
- Umgewickelte Maschinenlernmodelle in produktionsfertige Dienste ermöglichen skalierbaren Einsatz und Integration über interne Systeme.
- Conducted LLM benchmarking, evaluating models for performance, latency and task specific effectiveness to guide model selection and tuning.
- Entwickelte und gewartete ETL-Pipelines und interne Dashboards, rationalisieren die Datenverarbeitung und sorgen für eine handlungsfähige Sichtbarkeit in Schlüsselmetriken und -operationen.
- Zusammenarbeit mit funktionalen Teams bei der Umsetzung analytischer und operativer Anforderungen in skalierbare Daten- und Modelllösungen.
Technologien:
- Technologien:
- Microservices
Python
Google Cloud
- NLP
OpenAI API
LangChain
ChromaDB
Ollama
Large Language Models (LLM)
LlamaIndex
Data Scientist / Data Engineer
WalletConnect - 3 monate
- Automatisierte AWS Glue Jobs mit Hilfe von Terraform gewährleisten eine zuverlässige und wiederholbare Bereitstellung der Infrastruktur für Datenworkflows.
- Entwickelte kontinuierliche Analysen Ansichten in Amazon Athena um fast Echtzeit-Suchanfragen und Business-Einsichten zu unterstützen.
- Strukturiert und gewartet ein skalierbares Data-Warehouse mit DBT (Data Build Tool), das modulare, testbare und versionsgesteuerte Transformationen ermöglicht.
- Erstellte und verwaltete Preset.io Dashboards für interne Überwachung, die klare Sichtbarkeit in die wichtigsten Betriebs- und Business-Metriken bieten.
- Durchgeführte Ad-hoc- und Sondierungsdatenanalysen (EDA) zur Aufdeckung von Einsichten, zur Unterstützung der Entscheidungsfindung und zur Beantwortung von Anfragen von Interessengruppen.
- Zusammenarbeit mit funktionalen Teams bei der Umsetzung von Datenanforderungen in machbare Einblicke und skalierbare Analyselösungen.
Technologien:
- Technologien:
Python
SQL
AWS S3
Terraform
AWS Athena
dbt
AWS Glue
Machine Learning Engineer
Grokstream - 1 jahr 11 monate
- Entwickelt und implementiert neue Produktmerkmale als Antwort auf sich entwickelnde Kundenanforderungen, um die Anpassung an Geschäftsziele und Bedürfnisse der Anwender zu gewährleisten.
- Durchführung der Exploratory Data Analysis (EDA) zur Optimierung der Kunden-Onboarding-Prozesse, Aufdeckung wichtiger Erkenntnisse und Trends.
- Erstellte klare und aufschlussreiche Visualisierungen zur Kommunikation von Datenergebnissen an Interessengruppen und zur Unterstützung datengestützter Entscheidungsfindung.
- Verbesserte Leistungsverfolgungsmechanismen, verbesserte Systemüberwachung und eine genauere KPI-Messung.
- Pflege und Refaktorierung der bestehenden Codebase, die langfristige Skalierbarkeit, Instandhaltung und Einhaltung bewährter Entwicklungsmethoden gewährleistet.
Technologien:
- Technologien:
- Microservices
Python
TensorFlow
DevOps
Azure Cloud
Azure ML
- Clustering
Data Scientist / Machine Learning Engineer
VNGRS - 2 jahre 9 monate
- Verbesserte Leistung des Chatbots durch das Tuning von KI-Modellen und die Optimierung von Parametern zur Verbesserung der Reaktionsgenauigkeit und Benutzererfahrung.
- Benchmarkiert und verbessert die Leistung von Sprach-zu-Text, Sprach-Replikation und Optische Charaktererkennung (OCR) Modellen in mehreren Anwendungsfällen.
- Durchführung der Exploratory Data Analysis (EDA) und Wartung von KPI-Pipelines zur Überwachung der Systemeffizienz und zur Orientierung strategischer Verbesserungen.
- F&E-Initiativen für mehrattributspezifische Prognosen, Projektierung und Bereitstellung skalierbarer Arbeitsabläufe im Maschinenlernprozess mit integrierter AWS SageMaker.
- Entwickelte robuste Klassifikations- und Informationsextraktionsmodelle für die Dokumentenverarbeitung, die Automatisierung und verbesserte Dokumentenintelligenz ermöglichen.
- Datenaufbereitung, Manipulation und Kennzeichnung für verschiedene kI-getriebene Projekte, die eine hohe Datenqualität und Konsistenz gewährleisten.
Technologien:
- Technologien:
Docker
AWS
Flask
- Microservices
Python
Azure
Google Cloud
TensorFlow
DevOps
PyTorch
Scikit-learn
- NLP
Dialogflow
- Rasa (NLP)
Ausbildung
BSc.Mathematical Engineering
Yıldız Technical University · 2013 - 2018
Finden Sie Ihren nächsten Entwickler innerhalb von Tagen, nicht Monaten
In einem kurzen 25-minütigen Gespräch würden wir gerne:
- Auf Ihren Bedarf bezüglich des Recruitments von Software-Entwicklern eingehen
- Unseren Prozess vorstellen und somit wie wir Sie mit talentierten und geprüften Kandidaten aus unserem Netzwerk zusammenbringen können
- Die nächsten Schritte besprechen, um den richtigen Kandidaten zu finden - oft in weniger als einer Woche
